Haniyeh ucciso a Teheran, Vaez (Icg): "Motivo imbarazzo e dilemma per Iran"Dl Infrastrutture, c'è ok della Camera: ora il testo al SenatoTreni Alta Velocità, guasto tra Roma e Napoli: fino a 70 minuti di ritardo
E l'avanguardia venne dal deserto dei tartariL’AI può essere utilizzata nella battaglia contro la disinformazione per facilitare l’individuazione di fake news. Ne sono un esempio gli strumenti adottati da Facebook e il training dataset PropaNews.Nonostante l’intelligenza artificiale risulti uno strumento efficace nella creazione e nella diffusione di fake news,ETF questa può, allo stesso tempo, rappresentare un alleato nella lotta alla disinformazione.Avvalendosi di strumenti tecnologici – soprattutto di quelli basati sull’intelligenza artificiale – è infatti possibile contrastare efficacemente le notizie inesatte presenti sul web, identificandole, classificandole e procedendo alla loro eliminazione, modifica o deindicizzazione. Questo è fattibile grazie all’addestramento dell’AI al riconoscimento automatico di semantiche e modelli comunicativi tipici delle fake news, ma anche alla collaborazione uomo-macchina, dinamica in cui il primo – esperto o ente specializzato nel campo oggetto dell’analisi – interviene successivamente alla seconda per la conferma della notizia falsa da questa individuata in autonomia.I temi trattati all’interno dell’articoloL’approccio di FacebookIl training dataset PropaNewsUna combinazione vincente contro le fake newsL’approccio di FacebookI social media – luogo di proliferazione di fake news per eccellenza – stanno continuando a sviluppare strumenti sempre più efficaci nell’identificazione di notizie false.Facebook, nel 2016, ha lanciato Deeptext, un software che da allora ha rilevato e rimosso con successo circa 60.000 post a settimana. La stessa società ha implementato ulteriori strumenti utili nella lotta alla disinformazione. SimSearchNet++, per esempio, è un modello di analisi e corrispondenza delle immagini capace di abbinare le variazioni con un grado di precisione molto elevato. Il sistema è addestrato utilizzando l’apprendimento auto-supervisionato – in inglese SSL, self-supervised learning – un metodo di apprendimento automatico grazie al quale l’AI impara da dati non etichettati e che si basa su una rete neurale artificiale.L’azienda di Mark Zuckerberg ha inoltre lavorato a una serie di sistemi in grado di prevedere quando due contenuti testuali diversi nella loro struttura sintattica trasmettono lo stesso significato – per esempio “le mascherine sono pericolose” e “le mascherine non sono sicure” – o quando due immagini rappresentano lo stesso oggetto, al fine di eliminare fake news già identificate in altre occasioni. Strumenti utili in questo senso sono LASER e ObjectDNA. Facebook sta anche lavorando per lo sviluppo di strumenti di contrasto ai deepfake. Nel 2019, per esempio, ha collaborato con altri leader del settore nella Deepfake detection challenge, in occasione della quale sono stati presentati più di 35.000 modelli per l’individuazione di video manipolati tramite AI. I contributi hanno permesso di accelerare il progresso nello sviluppo di uno strumento efficace per l’eliminazione di immagini e video falsi dal web. La strada rimane però ancora in salita.Il training dataset PropaNewsUn approccio interessante è quello di chi ha utilizzato le tecniche di propaganda per addestrare l’AI all’identificazione delle notizie false. È il caso del training dataset PropaNews, una collezione di dati che incorpora tecniche di propaganda – come appelli all’autorità ed esagerazioni – e che è stata usata per addestrare dei fake news detectors (rilevatori di notizie false). Il dataset è stato creato dagli autori di una nuova ricerca (pubblicata nel marzo 2022) che spiega i vantaggi di un approccio simile nello sviluppo di un sistema utile nella lotta alla disinformazione. Si legge nell’introduzione al report “Faking fake news for real fake news detection” (“Falsificare notizie false per il rilevamento di vere notizie false”): “Mentre ci sono state molte ricerche e molti progressi recenti nel rilevamento neurale delle fake news, la difesa contro la disinformazione scritta da esseri umani rimane poco esplorata. Analizzando gli approcci attuali per la generazione di fake news e articoli realizzati dall’uomo, abbiamo scoperto che c’è un divario tra loro, che può spiegare gli scarsi risultati nel rilevamento di notizie false scritte da persone da parte di rilevatori addestrati con dati generati automaticamente”.La soluzione, per i ricercatori, è stata dunque quella di incorporare esplicitamente negli articoli creati e utilizzati per il training diverse tecniche di propaganda al fine di imitare il modo in cui gli esseri umani creano notizie false. I risultati sono interessanti: l’AI addestrata con PropaNews è dal 7,3% al 12,0% più accurata nel rilevamento della disinformazione scritta da persone rispetto a quella addestrata con dati generati secondo gli attuali approcci.Una combinazione vincente contro le fake newsLa tecnologia, data la mole di informazioni presenti sul web, è molto utile nella semplificazione del processo di identificazione di fake news. Da sola, però, non è ancora in grado – e forse non lo sarà mai – di “scovare” molte delle notizie false presenti online.Il rilevamento dell’intelligenza artificiale rimane infatti inaffidabile, in quanto si basa esclusivamente su fattori come il testo e i collegamenti online del contenuto oggetto dell’analisi per determinarne la credibilità. Spesso, la distinzione tra notizie vere e false richiede invece conoscenze culturali e sociali pregresse o, talvolta, il semplice buon senso, elementi ancora mancanti agli algoritmi di elaborazione del linguaggio naturale. Le notizie false possono inoltre essere deliberatamente modificate al fine di apparire reali e ciò complica ulteriormente il lavoro dell’AI.L’intelligenza artificiale può dunque segnalare fonti, testi, immagini, video e svariati contenuti che questa “giudica” come potenzialmente falsi, ma la verifica successiva da parte di essere umani esperti del settore risulta fondamentale. È quindi necessario un lavoro combinato, una collaborazione continua tra tecnologia e supervisione umana per combattere la disinformazione dilagante.
Russia, Evan Gershkovich condannato a 16 anni di carcereChef dona l'acqua avanzata sui tavoli del ristorante ai cani randagi: «Ogni settimana ne finiscono 35 litri nel lavandino»
Il Papa: speranza e perdono vie per la pace
In Unione europea prodotti 34,3 miliardi di litri di birra nel 2023Solo la formazione può battere il "mismatch"
MillionDay e MillionDay Extra, le due estrazioni di giovedì 1 agosto 2024: i numeri vincentiEpatite C, una illustre sconosciuta: un italiano su tre ignora l’infezione
Bagagli persi, boom di polizze assicurative: cosa coprono e cosa noAntonella Clerici, come sta dopo l'operazione: la convalescenza con le letture del mattino in dolce compagnia
Ucraina-Russia, guerra arriva in Africa: l'attacco in MaliStagione record per i campeggi nel 2024, oltre 11 milioni di presenze nella sola ToscanaRussia, ecco i nuovi aiuti di Kim a Putin per la guerra in UcrainaPompei, turista inglese sfregia la Casa delle Vestali: «Volevo lasciare un segno del mio passaggio»
S&P ha tagliato il rating dell'Ucraina al livello "default selettivo"
Venezia 81, Tenderstories partecipa con tre film in concorso
MillionDay e MillionDay Extra, le due estrazioni di lunedì 5 agosto 2024: i numeri vincenti di oggiLa fede di Lindon, l’uomo dei dieci talentiRussia, Gershkovich libero oggi: giornalista WSJ torna in UsaMare o montagna? E se le vacanze migliori per i piccoli fossero a casa?
Serenissima Ristorazione: nel 2023 fatturato a oltre 535 mln, +17%Carne di maiale eliminata dalle mense scolastiche, la Lega insorge: «Un favore ai musulmani, bambini italiani discriminati»Russia, la minaccia di Putin: "L'Europa è nel mirino"Estrazioni Lotto, Superenalotto e 10eLotto di giovedì 1 agosto 2024: numeri vincenti e quote Nessun 6 nè 5+