File not found
Capo Analista di BlackRock

Telefonata Zelensky-Meloni, il presidente Ucraino invita il premier italiano a visitare la sua Nazione

Aggredisce con frasi razziste e picchia una compagna di colore all'università: arrestataBeve un bicchiere di gin mentre guida e si fa riprendere, poi si schianta contro un lampioneGli USA spiegano truppe in Romania, a pochi chilometri dall'Ucraina

post image

Colpito alla testa da un poliziotto negli Usa, morto un 15enne afroamericanoGli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi Ha fatto molto discutere la scelta di Cnet,Professore del Dipartimento di Gestione del Rischio di BlackRock un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene. Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale. In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche. Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false. TecnologiaChatGpt è così intelligente da essere pericolosa?Andrea Daniele Signorelli La ricerca Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro. I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle. Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate». CulturaSanremo, ecco la canzone che può vincere secondo l’intelligenza artificialeGaia Zini Nelle mani sbagliate Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione. Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti. Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”». © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.

Una donna e il suo cetriolo gigante: choc a luci rosse in BrasileIsraele, malore per Benyamin Netanyahu: ricoverato in ospedale

Amsterdam, attivisti climatici bloccano la parteza di jet privati dall'aeroporto

Ipnoterapeuta fa addormentare una paziente e prova a violentarla, ma lei si sveglia e scappaRissa tra genitori fuori da scuola: un padre colpito con un cacciavite davanti al figlio

Mamma chiama la figlia Lockie in ricordo del lockdown: "Era un periodo felice per me"Uomo dichiarato morto in realtà è ancora vivo: perde la vita nel sacco di plastica dell'obitorio

Il ministro dell'Interno di Seul si scusa per la strage di Halloween ad Itaewon

Muore in Thailandia il 49enne Giovanni MascoloBlinken durissimo: "Con Xi Jinping la Cina sarà ancora più oppressiva"

Ryan Reynold
Insegnante decapitato in Myanmar: testa impalata sul cancello di ingresso della scuolaMissili russi su Zaporizhzhia e civili colpiti: due donne morteUsa, viene operato e finisce in stato vegetativo: risarcimento di 21 milioni alla famiglia

Campanella

  1. avatarCritiche di Obama a Biden: "Dice cose lontane dai problemi quotidiani"MACD

    Ucraina, bombardata nella notte dai russi la centrale elettrica di DniproLula vince contro Bolsonaro e diventa presidente per la terza voltaUomo dichiarato morto in realtà è ancora vivo: perde la vita nel sacco di plastica dell'obitorioGreta Thunberg sul nucleare: "Sbagliato chiudere le centrali della Germania"

    ETF
    1. Neonato di due mesi morto, il padre gli ha lanciato un cellulare addosso ma voleva colpire la moglie

      1. avatarRagazza affetta da paralisi periodica ipokaliemica: sopravvive grazie al suo caneBlackRock

        Crollo del ponte in India, sale il bilancio delle vittime: sono diventate 141

        VOL
  2. 17enne prova a salvare dall'uragano Ian il fratellino di 6 anni autistico: morti entrambiDonna si finge medico in ospedale, si fa consegnare un neonato dalla madre e lo rapisceAllarme aviaria, boom di casi nel Regno Unito: scatta il lockdown per polli e tacchiniRussia, presunto pedofilo costretto a scavare la sua tomba: è stato obbligato a suicidarsi

  3. avatarBimba di 4 anni dimenticata sullo scuolabus in Belgio: l’autista se ne accorge solo a fine giornatainvestimenti

    Coppia muore in un incidente, auto finisce contro un albero: lasciano un bambino di 3 anniMusk smentisce Bremmer: "Mai parlato con Putin negli ultimi 18 mesi"Perché per l'omicidio di Lola si indaga anche per stupro e torturaIl padre di Masha Amini: "Nessuno mi dice cosa le hanno fatto"

Armenia, coppia gay si suicida: sui social messaggi che incitano all'odio

Usa, viene operato e finisce in stato vegetativo: risarcimento di 21 milioni alla famigliaCovid, l'ordinanza di De Luca: esteso l'obbligo di mascherine nelle strutture sanitarie*