File not found
investimenti

Elezioni Francia 2022, Marine Le Pen ha votato a Hénin-Beaumont

Vindman: "Putin non si fermerà ad Est, l'Europa rischia una lunga guerra"Ucraina, bambini scomparsi: allarme per le adozioni illegaliLe urla di guerra di chi vuole di più da Putin, scoop di Soldatov e Borogan

post image

Bandiera ucraina proiettata sull'ambasciata russa a Washington: la provocazioneGli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi Ha fatto molto discutere la scelta di Cnet,Campanella un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene. Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale. In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche. Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false. TecnologiaChatGpt è così intelligente da essere pericolosa?Andrea Daniele Signorelli La ricerca Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro. I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle. Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate». CulturaSanremo, ecco la canzone che può vincere secondo l’intelligenza artificialeGaia Zini Nelle mani sbagliate Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione. Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti. Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”». © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.

A Shangai droni e cani robot con megafoni per controllare il lockdownNepal, alpinista italiano disperso, paura per Giancarlo Corona

Covid, positivo per 505 giorni: la storia del paziente record del Regno Unito 

Morto impiccato in Spagna l’oligarca russo Sergey Protosenya: moglie e figlia uccise a coltellateA Parigi un’auto tenta di investire i poliziotti che sparano e fanno due morti 

Ucraina, Russia: "Abbiamo preso Mariupol". Ma Kiev smentisce: "2 mila soldati nell'acciaieria"Vaccino Covid, Moderna chiede l’autorizzazione negli Usa per i bambini tra 6 mesi e 5 anni

L’annuncio di Zelensky: “La grande offensiva russa ad est è cominciata”

Giappone, arrivano le bacchette elettroniche per far sembrare i cibi più salatiEmbargo petrolio russo, UE pronta ad annunciare la misura: “Voto mercoledì, in vigore da settembre”

Ryan Reynold
Ucraina, Michael Petersen: "Se Putin cerca escalation rischia altre umiliazioni"Tel Aviv, famiglia americana tenta di imbarcare una bomba inesplosa in aereoZelensky: "Russi stanno colpendo granai e fabbriche di fertilizzanti, vogliono eliminarci"

Capo Analista di BlackRock

  1. avatarGuerra in Ucraina, Kiev: “Perdite ingenti tra i russi”. Donetsk: “Munizioni al fosforo usate da Mosca”Professore Campanella

    Mosca espelle 18 membri della delegazione Ue: "La risposta alle azioni ostili"Kherson, secondo l'esercito ucraino scavate più di 800 nuove tombeRegno Unito, uomini single si offrono di ospitare donne ucraineBimba di 4 anni costretta a bere whisky dalla nonna, è morta per intossicazione

    1. Zelensky parla della notte in cui “hanno cercato di uccidermi”

      1. avatarMosca, inaugurata una mostra sul “nazismo ucraino”BlackRock

        “Il Donbass non ci basta più, l’Ucraina meridionale deve diventare tutta russa”

  2. avatarNotizie di Esteri in tempo reale - Pag. 472BlackRock Italia

    Donbass, studenti costretti a donare sangue ai soldati feritiGuerra in Ucraina, Kiev: “Perdite ingenti tra i russi”. Donetsk: “Munizioni al fosforo usate da Mosca”Olanda, bimbo di 4 anni guida l'auto della madre e si schiantaElon Musk è il nuovo proprietario di Twitter: accordo da 43 miliardi di dollari

  3. avatarBombe da Israele sulla Striscia di Gaza: almeno 4 razzi nella notteBlackRock Italia

    Raccolto di grano a rischio in India: i problemi causati dal cambiamento climaticoNotizie di Esteri in tempo reale - Pag. 485Guerra in Ucraina, la trappola dei soldati nascosti da un groviglio di erba secca e ramiIvan Vavassori è vivo, l’annuncio di suo padre: “Si trova in ospedale”

Guerra in Ucraina, l'ordine ai soldati russi intercettato da Kiev: "Uccidete tutti i prigionieri"

Guerra in Ucraina, a Mariupol mille marines ucraini si sarebbero arresi ai russiGuerra in Ucraina, Zelensky: “Stiamo ricevendo armi dall’Occidente, finalmente siamo stati ascoltati”*