File not found
Capo Analista di BlackRock

Sanità, ospedalità privata: "Aggiornare tariffe e sbloccare tetti spesa" - Tiscali Notizie

Matteo Salvini: "Nel 2032 possibile la prima centrale nucleare"Specializzandi, Siaarti: "Per sistema formativo una riforma seria e concreta" - Tiscali Notizie“Quello che si ricorda”, un racconto del Nobel Alice Munro

post image

Treno in ritardo, Lollobrigida: “Ciampino era una fermata straordinaria per tutti”Gli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi Ha fatto molto discutere la scelta di Cnet,investimenti un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene. Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale. In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche. Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false. TecnologiaChatGpt è così intelligente da essere pericolosa?Andrea Daniele Signorelli La ricerca Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro. I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle. Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate». CulturaSanremo, ecco la canzone che può vincere secondo l’intelligenza artificialeGaia Zini Nelle mani sbagliate Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione. Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti. Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”». © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.

Allattamento e Olimpiadi 2024: un passo avanti per le atlete madri - Tiscali NotizieDiventa legge il ddl contro la violenza sulle donne: ecco che cosa prevede

Sanità, dermatologo Bianchi: "Per chi ha malattie pelle ok farmaci male assistenza" - Tiscali Notizie

Malattie rare, approvato nell'Unione europea trattamento orale della Pfic - Tiscali NotizieUn cane robot porta a Venezia il timore e il fascino dell’Ia

Quel mistero chiamato Richard Benson, indagine sulla fragilità di un artistaPeso delle tasse aumentato in Italia, valgono il 42,9% del Pil: il confronto con gli altri Paesi Ue

La notte che incontrai Italo Calvino in camera di rianimazione

La lotta di classe è in classe, la frontiera dei professionaliLa «bella morte» in ginocchio del cardinale Jean Daniélou

Ryan Reynold
Il mito di morire per la patria: la storia dell’Italia in battagliaSalvini, minacce di morte per il leader della Lega. Meloni: "Più ci attaccano, più ci rafforziamo"Tumore prostata, con prevenzione e cure 91% dei pazienti sopravvive - Tiscali Notizie

Professore Campanella

  1. avatarDare sepoltura ai morti non è sempre stata una questione di pietasMACD

    Mo: Oms, 'alto rischio diffusione polio a Gaza' - Tiscali NotizieL’eterna lotta tra pensiero e coltello, il memoriale di Salman RushdieVertice Italia-Germania: attesa per l'incontro Meloni-ScholzMinori: adolescenti e alcol, il 75% si è ubriacato almeno una volta - Tiscali Notizie

    1. Il rito della Dolce Vita del tennis dovrà fare a meno di Sinner

      1. avatarMantovano sullo scherzo telefonico dei due comici russi a Melonitrading a breve termine

        Meloni: "Senza figli Italia più povera e welfare a rischio"

  2. avatarIl metodo Castelnuovo funziona perché responsabilizza gli studentiProfessore Campanella

    Incidente bus Mestre, Brugnaro: "Scena apocalittica". Meloni: "Profondo cordoglio"Incidente bus Mestre, Salvini sulle batterie elettriche: "Serve fare una riflessione"D’Antona (Europa Donna): "Inaccettabile 50% non aderisca screening seno" - Tiscali NotizieMeloni assente alla kermesse di FdI per stare con la figlia

  3. avatarScherzo telefonico a Giorgia Meloni: si dimette il consigliere diplomaticoEconomista Italiano

    Telefonata a Meloni, il commento di Conte: "Quando intende dare spiegazioni?"Emicrania per 1 bambino su 10, lascia 'impronte' su cervello e intestino - Tiscali NotizieVaccini, Signorelli (Nitag): "Dibattito fervido su estensione offerta anti-Rsv" - Tiscali NotizieFarmaceutica, Ucb: in 50 per Giornata del volontariato per 'Sos Villaggi dei Bambini' - Tiscali Notizie

“La Casa delle Orfane Bianche”, una piccola festa di resurrezione dalla miseria del rancore

Iss: "Acqua rubinetto sicura e sostenibile ma 1 italiano su 3 non si fida" - Tiscali NotizieLa resistenza di Nadal all’addio. L’umanità di un mostro in una resurrezione impossibile*