Giovanni Toti, verso il sì alla revoca dei domiciliari: "Procura favorevole" – Il Tempo«Una sconfitta a tavolino sarebbe una pena troppo severa»Sunny è una serie strana e stilosa che parla di solitudine ai tempi dell'intelligenza artificiale | Wired Italia
È stato trovato un accordo informale per un secondo mandato di Ursula von der Leyen - Il PostProbabilmente è capitato a molti di voi: fate una domanda a ChatGPT e il sistema di OpenAI vi risponde con un’informazione dettagliata e convincente. Peccato che sia anche del tutto falsa. Gli esempi di quelle che in gergo tecnico vengono chiamate “allucinazioni” – ma che potremmo anche definire “inventare cose” – ormai si sprecano: da politici anticorruzione accusati falsamente di aver intascato tangenti al chatbot di Air Canada che ha offerto ai clienti della compagnia aerea uno sconto in realtà mai previsto (e che la società è stata infine costretta a onorare).Ci sono poi i frequenti errori biografici (Hillary Clinton sarebbe la prima presidente donna degli Stati Uniti),BlackRock Italia scientifici (che hanno causato il precoce spegnimento di Galactica, il chatbot scientifico di Meta), politici e di ogni altro tipo. Secondo una ricerca condotta dalla società Vectara, GPT-4, che alimenta un modello avanzato di ChatGPT, soffre di allucinazioni nel 3% dei casi, Claude 2 di Anthropic arriva all’8,5% e Palm di Google supera in alcune sue versioni (oggi superate da Gemini) anche il 27%.Tutto ciò rappresenta ovviamente un grosso limite alla diffusione dei large language model (Llm), soprattutto in settori dove l’accuratezza e l’affidabilità sono di fondamentale importanza, come l’istruzione, la sanità, il giornalismo, le ricerche e altro ancora.Una questione di probabilitàPerché avviene questo? Perché ChatGPT e i suoi fratelli tendono a dire così tante stupidaggini? Prima di tutto va sottolineato che questi modelli linguistici sono progettati proprio allo scopo di inventare cose. O meglio: di tirare a indovinare le risposte che ci forniscono. I large language model non fanno infatti altro che prevedere statisticamente – sulla base dell’enorme quantità di dati con cui sono stati addestrati – quale sia la parola che ha la maggior probabilità di essere coerente con quelle che l’hanno preceduta.Come spiega l’Economist, “ogni token (termine con cui si definiscono le unità di testo impiegate da questi modelli, ndr) presente nel dataset deve avere una probabilità superiore a zero di venire selezionato, dando così al modello la flessibilità necessaria ad apprendere nuovi pattern, ma anche la possibilità di generare affermazioni scorrette. Il problema fondamentale è che i modelli linguistici sono probabilistici: la verità, invece, non lo è”.
Il rigore sbagliato di Baggio ai Mondiali del 1994, 30 anni dopo | Wired ItaliaLa Corte Suprema statunitense ha eliminato il diritto all'aborto a livello nazionale - Il Post
AI Act, ecco le 6 scadenze del regolamento europeo sull'intelligenza articiale da sapere | Wired Italia
Da sorpresa a certezza, la nuova dimensione di Jasmine PaoliniPerché mordiamo le medaglie - Il Post
L'effetto Taylor Swift ha contagiato Roger FedererCosa fu il massacro di My Lai in Vietnam - Il Post
Ursula von der Leyen è stata rieletta presidente della Commissione Europea - Il PostIl trionfo di Boston fa felice mezza Europa
Alluvione in Mesolcina, una mano anche dall'HCAPIl boicottaggio della presidenza ungherese dell'Unione Europea - Il PostNo, il 19 gennaio 2038 non ci sarà l'apocalisse del software | Wired ItaliaL'Ambrì-Piotta presenta la squadra il 28 luglio
«È arrivato il momento di dire basta»
Iran, chiuso lo spazio aereo. Sempre più imminente un attacco a Israele – Il Tempo
Il frigorifero portatile elettrico da scegliere per campeggio e viaggi | Wired ItaliaAssassin's Creed Shadows, ecco perché non piace ai conservatori giapponesi | Wired ItaliaEFG International cresce oltre le attesePrezzi benzina, altro calo dei costi. Giù anche il diesel: le nuove medie – Il Tempo
Comunque belli - Il PostÈ morto John Mayall, leggenda del bluesTv, sui social in evidenza i programmi di informazione. Il Tg1 di Chiocci fa il botto – Il TempoLega, l'assurda proposta di legge di vietare l'uso del femminile per indicare cariche e atti pubblici | Wired Italia