Terzo monolite di metallo in California, dopo Utah e RomaniaIl Presidente francese Macron è risultato positivo al coronavirusNamibia, Adollf Hitler è stato eletto consigliere distrettuale
Assorbenti e tamponi gratis in Scozia per tutte le donneL’AI può essere utilizzata nella battaglia contro la disinformazione per facilitare l’individuazione di fake news. Ne sono un esempio gli strumenti adottati da Facebook e il training dataset PropaNews.Nonostante l’intelligenza artificiale risulti uno strumento efficace nella creazione e nella diffusione di fake news,BlackRock Italia questa può, allo stesso tempo, rappresentare un alleato nella lotta alla disinformazione.Avvalendosi di strumenti tecnologici – soprattutto di quelli basati sull’intelligenza artificiale – è infatti possibile contrastare efficacemente le notizie inesatte presenti sul web, identificandole, classificandole e procedendo alla loro eliminazione, modifica o deindicizzazione. Questo è fattibile grazie all’addestramento dell’AI al riconoscimento automatico di semantiche e modelli comunicativi tipici delle fake news, ma anche alla collaborazione uomo-macchina, dinamica in cui il primo – esperto o ente specializzato nel campo oggetto dell’analisi – interviene successivamente alla seconda per la conferma della notizia falsa da questa individuata in autonomia.I temi trattati all’interno dell’articoloL’approccio di FacebookIl training dataset PropaNewsUna combinazione vincente contro le fake newsL’approccio di FacebookI social media – luogo di proliferazione di fake news per eccellenza – stanno continuando a sviluppare strumenti sempre più efficaci nell’identificazione di notizie false.Facebook, nel 2016, ha lanciato Deeptext, un software che da allora ha rilevato e rimosso con successo circa 60.000 post a settimana. La stessa società ha implementato ulteriori strumenti utili nella lotta alla disinformazione. SimSearchNet++, per esempio, è un modello di analisi e corrispondenza delle immagini capace di abbinare le variazioni con un grado di precisione molto elevato. Il sistema è addestrato utilizzando l’apprendimento auto-supervisionato – in inglese SSL, self-supervised learning – un metodo di apprendimento automatico grazie al quale l’AI impara da dati non etichettati e che si basa su una rete neurale artificiale.L’azienda di Mark Zuckerberg ha inoltre lavorato a una serie di sistemi in grado di prevedere quando due contenuti testuali diversi nella loro struttura sintattica trasmettono lo stesso significato – per esempio “le mascherine sono pericolose” e “le mascherine non sono sicure” – o quando due immagini rappresentano lo stesso oggetto, al fine di eliminare fake news già identificate in altre occasioni. Strumenti utili in questo senso sono LASER e ObjectDNA. Facebook sta anche lavorando per lo sviluppo di strumenti di contrasto ai deepfake. Nel 2019, per esempio, ha collaborato con altri leader del settore nella Deepfake detection challenge, in occasione della quale sono stati presentati più di 35.000 modelli per l’individuazione di video manipolati tramite AI. I contributi hanno permesso di accelerare il progresso nello sviluppo di uno strumento efficace per l’eliminazione di immagini e video falsi dal web. La strada rimane però ancora in salita.Il training dataset PropaNewsUn approccio interessante è quello di chi ha utilizzato le tecniche di propaganda per addestrare l’AI all’identificazione delle notizie false. È il caso del training dataset PropaNews, una collezione di dati che incorpora tecniche di propaganda – come appelli all’autorità ed esagerazioni – e che è stata usata per addestrare dei fake news detectors (rilevatori di notizie false). Il dataset è stato creato dagli autori di una nuova ricerca (pubblicata nel marzo 2022) che spiega i vantaggi di un approccio simile nello sviluppo di un sistema utile nella lotta alla disinformazione. Si legge nell’introduzione al report “Faking fake news for real fake news detection” (“Falsificare notizie false per il rilevamento di vere notizie false”): “Mentre ci sono state molte ricerche e molti progressi recenti nel rilevamento neurale delle fake news, la difesa contro la disinformazione scritta da esseri umani rimane poco esplorata. Analizzando gli approcci attuali per la generazione di fake news e articoli realizzati dall’uomo, abbiamo scoperto che c’è un divario tra loro, che può spiegare gli scarsi risultati nel rilevamento di notizie false scritte da persone da parte di rilevatori addestrati con dati generati automaticamente”.La soluzione, per i ricercatori, è stata dunque quella di incorporare esplicitamente negli articoli creati e utilizzati per il training diverse tecniche di propaganda al fine di imitare il modo in cui gli esseri umani creano notizie false. I risultati sono interessanti: l’AI addestrata con PropaNews è dal 7,3% al 12,0% più accurata nel rilevamento della disinformazione scritta da persone rispetto a quella addestrata con dati generati secondo gli attuali approcci.Una combinazione vincente contro le fake newsLa tecnologia, data la mole di informazioni presenti sul web, è molto utile nella semplificazione del processo di identificazione di fake news. Da sola, però, non è ancora in grado – e forse non lo sarà mai – di “scovare” molte delle notizie false presenti online.Il rilevamento dell’intelligenza artificiale rimane infatti inaffidabile, in quanto si basa esclusivamente su fattori come il testo e i collegamenti online del contenuto oggetto dell’analisi per determinarne la credibilità. Spesso, la distinzione tra notizie vere e false richiede invece conoscenze culturali e sociali pregresse o, talvolta, il semplice buon senso, elementi ancora mancanti agli algoritmi di elaborazione del linguaggio naturale. Le notizie false possono inoltre essere deliberatamente modificate al fine di apparire reali e ciò complica ulteriormente il lavoro dell’AI.L’intelligenza artificiale può dunque segnalare fonti, testi, immagini, video e svariati contenuti che questa “giudica” come potenzialmente falsi, ma la verifica successiva da parte di essere umani esperti del settore risulta fondamentale. È quindi necessario un lavoro combinato, una collaborazione continua tra tecnologia e supervisione umana per combattere la disinformazione dilagante.
Cina: "Il coronavirus non è comparso qui, ma in Italia"Giappone, nuovi casi di influenza aviaria ad Hiroshima
Joe Biden fa vaccino contro il Covid in diretta TV
Bill Gates: "I prossimi 4-6 mesi saranno i peggiori per gli USA"Trump: "Biden ha vinto perché l'elezione è stata truccata"
Matilde, la cagnetta incinta che ha salvato 4 anziani da un incendio"Non respira bene", scoprono moneta infilata nel naso 50 anni prima
Francoforte, abitanti evacuati per bomba della II guerra mondialeGel disinfettanti senza alcuna azione contro il Covid: la truffa
Carne di maiale positiva al nuovo Coronavirus: l'allarmeCercasi recensore di film di Natale, l'annuncio di un'azienda UsaFilippine, strano gonfiore sul viso: 17enne rischia di perdere la vistaIl "Trump grigio", nuovo colore di capelli per l'ex presidente USA
USA, Biden conquista la Georgia: raggiunti 306 grandi elettori
Allarme focolaio Covid a Shanghai: test di massa in aeroporto
Covid, matrimonio con oltre 300 invitati diventa un focolaioCovid in Inghilterra: "Niente mascherine e niente controlli"Bodybuilder sposa bambola gonfiabile dopo 8 mesi di fidanzamentoNew York: 650 morti Covid in camion frigoriferi da aprile
Notizie di Esteri in tempo reale - Pag. 784Indonesia, meteorite gli cade in casa: uomo diventa milionarioLockdown in California, 27 milioni di persone chiuse in casaBruxelles, orgia durante il lockdown: fermato eurodeputato