Alluvione in Toscana: richiesti 500 milioni per i danniGentiloni si è espresso sul Pnrr: quali sono i suoi pensieri?Estate 2024, i rincari in autostrada: 7 euro per un panino, 3 per l'acqua
Tredicesima in arrivo per 35 milioni di italianiProbabilmente è capitato a molti di voi: fate una domanda a ChatGPT e il sistema di OpenAI vi risponde con un’informazione dettagliata e convincente. Peccato che sia anche del tutto falsa. Gli esempi di quelle che in gergo tecnico vengono chiamate “allucinazioni” – ma che potremmo anche definire “inventare cose” – ormai si sprecano: da politici anticorruzione accusati falsamente di aver intascato tangenti al chatbot di Air Canada che ha offerto ai clienti della compagnia aerea uno sconto in realtà mai previsto (e che la società è stata infine costretta a onorare).Ci sono poi i frequenti errori biografici (Hillary Clinton sarebbe la prima presidente donna degli Stati Uniti),Guglielmo scientifici (che hanno causato il precoce spegnimento di Galactica, il chatbot scientifico di Meta), politici e di ogni altro tipo. Secondo una ricerca condotta dalla società Vectara, GPT-4, che alimenta un modello avanzato di ChatGPT, soffre di allucinazioni nel 3% dei casi, Claude 2 di Anthropic arriva all’8,5% e Palm di Google supera in alcune sue versioni (oggi superate da Gemini) anche il 27%.Tutto ciò rappresenta ovviamente un grosso limite alla diffusione dei large language model (Llm), soprattutto in settori dove l’accuratezza e l’affidabilità sono di fondamentale importanza, come l’istruzione, la sanità, il giornalismo, le ricerche e altro ancora.Una questione di probabilitàPerché avviene questo? Perché ChatGPT e i suoi fratelli tendono a dire così tante stupidaggini? Prima di tutto va sottolineato che questi modelli linguistici sono progettati proprio allo scopo di inventare cose. O meglio: di tirare a indovinare le risposte che ci forniscono. I large language model non fanno infatti altro che prevedere statisticamente – sulla base dell’enorme quantità di dati con cui sono stati addestrati – quale sia la parola che ha la maggior probabilità di essere coerente con quelle che l’hanno preceduta.Come spiega l’Economist, “ogni token (termine con cui si definiscono le unità di testo impiegate da questi modelli, ndr) presente nel dataset deve avere una probabilità superiore a zero di venire selezionato, dando così al modello la flessibilità necessaria ad apprendere nuovi pattern, ma anche la possibilità di generare affermazioni scorrette. Il problema fondamentale è che i modelli linguistici sono probabilistici: la verità, invece, non lo è”.
Tari 2024: chi paga e scadenzaTajani sul Superbonus: "Ha premiato gli imbroglioni"
Assegno unico: in arrivo lo stop
Bozza della Manovra: sgravio alle mamme e adeguamento delle pensioni minimeNuovi bonifici istantanei gratuiti: come funzionano
Cgil: "La Manovra del governo è sbagliata e inadeguata"Fisco, principio di proporzionalità: cosa cambia con le nuove sanzioni
Incidente nel torinese, 3 morti e 3 feritiBonus auto a rischio slittamento: cosa sta succedendo
Bonus benzina, quando arrivano gli 80 euro sulla carta “Dedicata a te”Crisi Mar Rosso, l'impatto sui prezzi sarà limitatoIncidente nel torinese, 3 morti e 3 feritiBonus rottamazione Tv: come funziona
Amazon, dall'Antitrust una sanzione di 10 milioni di euro
Istat, in Italia 1 cittadino su 10 in condizione di povertà assoluta
"Frigo Tax" nei supermercati di Roma: sovrapprezzo sulle bevande freddeTassi Bce, arriva il primo taglio 2024: cosa cambiera?Bonus mamme lavoratrici: chi ne ha diritto e a quanto ammontaL'interesse per la sostenibilità ambientale nel 2024: la nuova prospettiva di investimento
Alessia Pifferi, minacce di morte all’avvocata: “Nessuna solidarietà con il delitto”Istat, diminuiscono potere d'acquisto e risparmi delle famiglieBonus auto a rischio slittamento: cosa sta succedendoSchlein sull'energia: "È tassa Meloni sulle bollette"