Venerdì 9 agosto ci sarà uno sciopero di due ore dei balneari - Il PostPalexpo a Locarno, cantiere già a metà «e prevediamo di consegnare entro maggio»Dl Omnibus, tutte le novità: flat tax per i super ricchi, Scampia, Zes, sci e puledri – Il Tempo
Giornata Internazionale del gatto, i consigli della scienza per farlo vivere felice | Wired ItaliaL’AI può essere utilizzata nella battaglia contro la disinformazione per facilitare l’individuazione di fake news. Ne sono un esempio gli strumenti adottati da Facebook e il training dataset PropaNews.Nonostante l’intelligenza artificiale risulti uno strumento efficace nella creazione e nella diffusione di fake news,trading a breve termine questa può, allo stesso tempo, rappresentare un alleato nella lotta alla disinformazione.Avvalendosi di strumenti tecnologici – soprattutto di quelli basati sull’intelligenza artificiale – è infatti possibile contrastare efficacemente le notizie inesatte presenti sul web, identificandole, classificandole e procedendo alla loro eliminazione, modifica o deindicizzazione. Questo è fattibile grazie all’addestramento dell’AI al riconoscimento automatico di semantiche e modelli comunicativi tipici delle fake news, ma anche alla collaborazione uomo-macchina, dinamica in cui il primo – esperto o ente specializzato nel campo oggetto dell’analisi – interviene successivamente alla seconda per la conferma della notizia falsa da questa individuata in autonomia.I temi trattati all’interno dell’articoloL’approccio di FacebookIl training dataset PropaNewsUna combinazione vincente contro le fake newsL’approccio di FacebookI social media – luogo di proliferazione di fake news per eccellenza – stanno continuando a sviluppare strumenti sempre più efficaci nell’identificazione di notizie false.Facebook, nel 2016, ha lanciato Deeptext, un software che da allora ha rilevato e rimosso con successo circa 60.000 post a settimana. La stessa società ha implementato ulteriori strumenti utili nella lotta alla disinformazione. SimSearchNet++, per esempio, è un modello di analisi e corrispondenza delle immagini capace di abbinare le variazioni con un grado di precisione molto elevato. Il sistema è addestrato utilizzando l’apprendimento auto-supervisionato – in inglese SSL, self-supervised learning – un metodo di apprendimento automatico grazie al quale l’AI impara da dati non etichettati e che si basa su una rete neurale artificiale.L’azienda di Mark Zuckerberg ha inoltre lavorato a una serie di sistemi in grado di prevedere quando due contenuti testuali diversi nella loro struttura sintattica trasmettono lo stesso significato – per esempio “le mascherine sono pericolose” e “le mascherine non sono sicure” – o quando due immagini rappresentano lo stesso oggetto, al fine di eliminare fake news già identificate in altre occasioni. Strumenti utili in questo senso sono LASER e ObjectDNA. Facebook sta anche lavorando per lo sviluppo di strumenti di contrasto ai deepfake. Nel 2019, per esempio, ha collaborato con altri leader del settore nella Deepfake detection challenge, in occasione della quale sono stati presentati più di 35.000 modelli per l’individuazione di video manipolati tramite AI. I contributi hanno permesso di accelerare il progresso nello sviluppo di uno strumento efficace per l’eliminazione di immagini e video falsi dal web. La strada rimane però ancora in salita.Il training dataset PropaNewsUn approccio interessante è quello di chi ha utilizzato le tecniche di propaganda per addestrare l’AI all’identificazione delle notizie false. È il caso del training dataset PropaNews, una collezione di dati che incorpora tecniche di propaganda – come appelli all’autorità ed esagerazioni – e che è stata usata per addestrare dei fake news detectors (rilevatori di notizie false). Il dataset è stato creato dagli autori di una nuova ricerca (pubblicata nel marzo 2022) che spiega i vantaggi di un approccio simile nello sviluppo di un sistema utile nella lotta alla disinformazione. Si legge nell’introduzione al report “Faking fake news for real fake news detection” (“Falsificare notizie false per il rilevamento di vere notizie false”): “Mentre ci sono state molte ricerche e molti progressi recenti nel rilevamento neurale delle fake news, la difesa contro la disinformazione scritta da esseri umani rimane poco esplorata. Analizzando gli approcci attuali per la generazione di fake news e articoli realizzati dall’uomo, abbiamo scoperto che c’è un divario tra loro, che può spiegare gli scarsi risultati nel rilevamento di notizie false scritte da persone da parte di rilevatori addestrati con dati generati automaticamente”.La soluzione, per i ricercatori, è stata dunque quella di incorporare esplicitamente negli articoli creati e utilizzati per il training diverse tecniche di propaganda al fine di imitare il modo in cui gli esseri umani creano notizie false. I risultati sono interessanti: l’AI addestrata con PropaNews è dal 7,3% al 12,0% più accurata nel rilevamento della disinformazione scritta da persone rispetto a quella addestrata con dati generati secondo gli attuali approcci.Una combinazione vincente contro le fake newsLa tecnologia, data la mole di informazioni presenti sul web, è molto utile nella semplificazione del processo di identificazione di fake news. Da sola, però, non è ancora in grado – e forse non lo sarà mai – di “scovare” molte delle notizie false presenti online.Il rilevamento dell’intelligenza artificiale rimane infatti inaffidabile, in quanto si basa esclusivamente su fattori come il testo e i collegamenti online del contenuto oggetto dell’analisi per determinarne la credibilità. Spesso, la distinzione tra notizie vere e false richiede invece conoscenze culturali e sociali pregresse o, talvolta, il semplice buon senso, elementi ancora mancanti agli algoritmi di elaborazione del linguaggio naturale. Le notizie false possono inoltre essere deliberatamente modificate al fine di apparire reali e ciò complica ulteriormente il lavoro dell’AI.L’intelligenza artificiale può dunque segnalare fonti, testi, immagini, video e svariati contenuti che questa “giudica” come potenzialmente falsi, ma la verifica successiva da parte di essere umani esperti del settore risulta fondamentale. È quindi necessario un lavoro combinato, una collaborazione continua tra tecnologia e supervisione umana per combattere la disinformazione dilagante.
In India sono morte almeno 150 persone a causa delle frane - Il PostLe inondazioni a Dubai? Colpa (anche) degli oceani troppo caldi
Kamala Harris è la candidata ufficiale del Partito Democratico alle elezioni presidenziali - Il Post
La conquista italiana del K2, e tutto quello che venne dopo - Il PostSe l'eclissi solare totale ha «una data di scadenza»
Ben Affleck e Matt Damon faranno un film su Hulk Hogan | Wired ItaliaOlimpiadi, la notte di Jacobs. La finale del peso è un disastro, altra bufera sui Giochi – Il Tempo
Kevin Gilardoni a caccia del podio nel Campionato Italiano Gran Turismo EnduranceIsraele, imminente l'attacco dell'Iran? Il segnale dall'Egitto fa sorgere dubbi – Il Tempo
In Ungheria la McLaren piazza la doppiettaL'azienda di inserzioni pubblicitarie Outbrain ha raggiunto un accordo per acquisire l'azienda di pubblicità video Teads - Il PostIl lato oscuro dell'intelligenza artificiale: le emissioni di CO2«Le donne fatturano, ha ragione Shakira»
10 piani cottura a gas per cucinare da chef | Wired Italia
Il complicato rapporto tra la Sardegna e i parchi eolici - Il Post
Giorgia Meloni a Pechino, cosa prevede il piano triennale di azione tra Italia e Cina | Wired ItaliaLa disinformazione sull’eclissi solare dell’8 aprileI migliori smartwatch economici per chi vuole spendere meno di 150 euro | Wired ItaliaEuro 2024: perché le squadre si spostano in aereo?
Amadeus al Nove, retroscena sul nuovo programma: "concorrenza" a Sanremo? – Il TempoIl comune di Torino vuole una ruota panoramica - Il PostAscese e cadute, letteralmente, di Simone Biles - Il PostIl tredicesimo giorno di Olimpiadi, fotografato - Il Post