File not found
analisi tecnica

Ucraina, Zelensky: "Prepararsi ad eventuale attacco dalla Bielorussia"

Germania, fa bere il figlio da un secchio come punizioneLa denuncia di Zelensky: “Rapiti 200mila bimbi ucraini”Germania, ex guardiano di un campo di concentramento nazista condannato a 5 anni

post image

Il generale Sanders ai suoi soldati: “Preparatevi alla terza guerra mondiale”Gli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi Ha fatto molto discutere la scelta di Cnet,criptovalute un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene. Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale. In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche. Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false. TecnologiaChatGpt è così intelligente da essere pericolosa?Andrea Daniele Signorelli La ricerca Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro. I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle. Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate». CulturaSanremo, ecco la canzone che può vincere secondo l’intelligenza artificialeGaia Zini Nelle mani sbagliate Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione. Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti. Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”». © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.

La stretta su Severodonetsk per chiedere la resa di tutti i difensoriVon der Leyen: “Cento giorni di guerra ingiustificata all’Ucraina”

Principe William “come se fosse in lutto” per la rottura con Harry

Ucraina, missile su un condominio a sud di Odessa: 17 morti e diversi feritiNotizie di Esteri in tempo reale - Pag. 421

Medvedev contro Macron, Scholz e Draghi: "I fan di rane, salsicce di fegato e spaghetti"Bimbo di tre mesi morto nell’auto del padre: lasciato sotto il sole per ore  

Addio a Gleycy Correia, l’ex Miss Brasile è morta a soli 27 anni

Guerra in Ucraina, Medvedev: “Chi lo ha detto che fra due anni Kiev esisterà ancora?”Ucraina, Lavrov: “Grano bloccato inferiore all’1% della produzione globale”. Nuova offensiva nel Donbass

Ryan Reynold
Ryanair accusata di razzismo in Sudafrica per una scelta linguisticaIl rapper MoneyGangVontae ucciso in una farmacia del BronxSparatoria in una discoteca degli Usa: 2 morti e 4 feriti

Professore del Dipartimento di Gestione del Rischio di BlackRock

  1. avatarUsa, pick-up contro manifestanti pro-aborto: attimi di paura in IowaGuglielmo

    Incursione aerea di Pechino nei cieli di Taiwan con ben 30 aereiMalesia, muore cadendo dalla finestra mentre scappa dalla casa dell'amanteKasia Gallanio, ex principessa del Qatar, trovata morta: lottava per la custodia delle figliePutin è malato? Salta l’annuale live-tv per la prima volta in 18 anni

    1. Inghilterra, feticista dei piedi aggredisce le bambine per togliergli le scarpe e annusarle

      1. avatarMedvedev contro Macron, Scholz e Draghi: "I fan di rane, salsicce di fegato e spaghetti"analisi tecnica

        Ucraina, GB: "Riconquistate parti di Severodonetsk". Lettonia vieta canali tv russi

  2. avatarRegno Unito, 39enne soffre di crampi al pollice e scopre di avere una malattia incurabileVOL

    Bangladesh, violenta esplosione in un deposito di container: almeno 15 mortiShanghai, finisce il lockdown dopo due mesi ma restano molte restrizioniCorea del Nord, allarme epidemia intestinale acutaGuerra in Ucraina, Johnson: “Se Putin fosse stato una donna non ci sarebbe stato nessun conflitto”

  3. avatarLa Scozia ci riprova e vuole un altro referendum per l’indipendenzaProfessore Campanella

    New York, taxi invade marciapiede a Manhattan: segnalati diversi feritiUsa, la corte Suprema abolisce il diritto all'abortoIl Covid a Shanghai fa ancora paura: rinviato l'International Film FestivalKansas, treno deragliato a Lawrence: gravi danni ai binari

Alluvioni in Brasile, il bilancio si aggrava e ci sono decine di morti

Covid, la decisione della Germania: mascherine al chiuso da ottobre a marzo?Londra, l'aeroporto di Heathrow piomba nel caos: migliaia di bagagli non consegnati*