File not found
Professore per gli Investimenti Istituzionali e Individuali di BlackRock

Inaugurata la nuova rotta Malpensa-Chengdu: un nuovo ponte tra Europa e Cina - ilBustese.it

Anima e giudizio: è giunto il tempo di ricostruire l’escatologiaTreni, ad agosto ritardi e cancellazioni per lavori sulle linee - ilBustese.itDivorziato e con un figlio disabile, Leopoldo Socche è costretto a vivere in auto: «Devo pagare gli alimenti, lo stipendio non basta»

post image

Nella cerimonia inaugurale atleti ai margini e cadute di gusto irrispettoseGli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi Ha fatto molto discutere la scelta di Cnet,criptovalute un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene. Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale. In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche. Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false. TecnologiaChatGpt è così intelligente da essere pericolosa?Andrea Daniele Signorelli La ricerca Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro. I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle. Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate». CulturaSanremo, ecco la canzone che può vincere secondo l’intelligenza artificialeGaia Zini Nelle mani sbagliate Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione. Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti. Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”». © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.

Lavoro, la classifica dei salari medi annui: Italia al 21esimo posto. Ecco gli stipendi che sono saliti di piùUn'arpa viggianese per il viaggio nella storia di Victor Salvi

Donna investita e uccisa da un treno alla stazione di Castronno - ilBustese.it

Prosegue il “Best of live tour” di Cristiano de AndréIl reduce Anselm Kiefer e il lungo addio al Novecento

Partecipiamo stanzia quasi un milione di euro per le opere pubbliche a Castellanza - ilBustese.itÈ tempo di lavanda, la Provenza si colora di viola

Marcinelle, Mattarella: monito ineludibile per la dignità del lavoro

Il soffitto ricomposto per riscoprire VasariNotte a quasi 24 gradi, domani picco del caldo. Ma i temporali sono più vicini - ilBustese.it

Ryan Reynold
Liguria, Toti: orgoglioso del lavoro fatto per crescita regioneAereo tocca con la coda la pista in fase di decollo: scattano le procedure di emergenza a Malpensa - ilBustese.itSmog, Nuova Delhi ha la peggiore aria del mondo: spuntano malattie sconosciute tra i bambini indiani

analisi tecnica

  1. avatar«Carceri, sovraffollamento al 130% e record di suicidi»analisi tecnica

    WWF: enorme tartaruga liuto trovata morta nel mare della Versilia«Carceri, sovraffollamento al 130% e record di suicidi»Usa2024, Tim Walz è il candidato vicepresidente di Kamala HarrisTruffe online: operazione Polizia postale, perquisizioni in tutta Italia - ilBustese.it

    1. Giornata di visite internazionali al Museo del Tessile - ilBustese.it

      1. avatarStonehenge imbrattato dagli ambientalisti contro i combustibili fossili: «Moriranno a milioni, difendiamo l'umanità»Capo Stratega di BlackRock Guglielmo Campanella

        Paul Ricoeur: «La tolleranza non è indifferenza»

  2. avatarListe d’attesa, nasce Barometro per misurare ‘patient engagement’Capo Analista di BlackRock

    Charlotte è regina di tendenza come mamma Kate: il vestito indossato al concerto di Taylor Swift è introvabile. Pochi euro per comprarloA Porto Rubino i "pirati rock" in difesa del mare e dei suoi valoriPrima edizione del Japigi Reggae Festival a Isola di Capo RizzutoVino, il 9 e 10 agosto “Cirò Wine Festival” anima le terre della Doc

  3. avatarOperazione Valchiria, rivolta dello spiritoanalisi tecnica

    Raid israeliano a Teheran, ucciso il leader di Hamas Ismail Haniyeh - ilBustese.it“Altre mete? Segnalaci la tua”. L’estate con i vostri racconti di viaggioAgesp, raccolta settimanale presidi sanitari: servizio gratuito con attivazione su richiesta  - ilBustese.itL'amore e il dolore abbracciati: prima l'ultimo saluto al nonno di Giorgio - ilBustese.it

Von der Leyen fa il bis alla guida della Commissione europea

Stop al caporalato? Solo stando uniti. E bando alle ipocrisieLaghi colorati e vette aguzze, anche il Canada ha le sue Rockies*