Cina, ingresso agli italiani vietato anche per lavoroAPSA, nel 2023 utili per 45,9 milioni - Vatican NewsI risvolti etici dell'intelligenza artificiale - AI news
Partnership Microsoft-Żabka: la catena di market polacca implementa l'AI - AI newsPolitica,BlackRock industria, sanità, economia: ogni campo è a rischio deepfake, una particolare tecnica che sfrutta l’intelligenza artificiale per manipolare foto e video.Con il termine deepfake si fa riferimento ad una tecnica AI grazie alla quale si possono creare contenuti partendo da una base reale di video, foto o registrazioni audio. Un fenomeno in larga ascesa di cui stupisce la capacità di rendere questa finzione incredibilmente simile alla realtà, riproducendo in maniera impeccabile, ad esempio, espressioni facciali e timbro vocale della persona raffigurata. La diffusione di materiale deepfake porta con sé numerosi rischi. In questo articolo, analizziamo la tecnologia dietro questi contenuti, i settori più esposti e le possibili soluzioni.I temi trattati all’interno dell’articoloNascita e diffusione dei contenuti deepfakeL’utilizzo dei deepfake in politicaQuali altri settori sono a rischio?Come riconoscere i deepfake?Nascita e diffusione dei contenuti deepfakeIl termine è stato utilizzato per la prima volta nel 2017 da un utente di Reddit che aveva apostrofato con la parola “deepfakes”, dei finti film hard con famosi attori di Hollywood, sostituendo i loro volti a quelli degli attori del video. Il sistema utilizzato in quel caso (ma non solo) è quello del machine learning, cioè l’apprendimento automatico attraverso algoritmi che analizzano dati e calcolano la probabilità che una cosa sia vera o falsa. Proprio gli algoritmi riescono a generare, grazie ai loro calcoli, un’immagine che sia quanto più veritiera e realistica possibile. A questo scopo vengono sfruttate le reti generative avversarie, o GAN in breve, che rappresentano un approccio alla modellazione generativa che utilizza metodi di apprendimento profondo, come ad esempio le reti neurali.Le reti neurali sono una famiglia di algoritmi machine learning: gli operatori le programmano per un compito specifico e loro proseguono autonomamente imparando dalle immagini che ricevono. È questa capacità di apprendimento che dà all’algoritmo la sua capacità di “pensiero”. In questo caso specifico, vengono analizzati video, foto, registrazioni di coloro che verranno inseriti nel prodotto finale, in modo tale che poi possa venire processato anche il più piccolo dettaglio: la pronuncia di una parola, una smorfia, un tic, comprendendo anche quando e come questi vengano fatti.Lo stesso meccanismo è stato utilizzato, ad esempio, sia da TikTok per creare un filtro molto popolare, in grado di rendere animate le foto, facendo muovere e sorridere le persone immortalate sia dal regista Morgan Neville per girare un documentario, Roadrunner, su Anthony Bourdain, il famoso cuoco mancato nel 2018. Grazie a questa tecnologia è stato possibile inserire nel film la voce narrante del cuoco scomparso, dopo che essa è stata ricostruita grazie all’analisi, da parte dell’intelligenza artificiale, di moltissime ore di video.L’utilizzo dei deepfake in politicaLa politica non è esente dal rischio deepfake, anzi. Un uso incontrollato di questa tecnica, se non si interviene prontamente, può portare anche a gravi conseguenze. Ad aprile 2018, sui social, ha iniziato a spopolare sui social un video in cui Barack Obama insultava pubblicamente Donald Trump. Un comportamento da molti ritenuto insolito per l’ex presidente degli Stati Uniti. Solo successivamente è stato scoperto che quel contenuto era stato realizzato grazie all’utilizzo di questa specifica tecnica AI.Questo video, che a una prima visione potrebbe risultare anche divertente, apre il vaso di pandora su alcuni rischi che l’uso intenso dei deepfake porta con sé, sia in campo politico che nella società. Basti pensare a cosa succederebbe se venissero fatte pronunciare parole di guerra ad un capo di Stato.Il fenomeno è tornato agli albori della cronaca anche durante la pandemia da Covid-19. Durante questo periodo storico, in particolare, video deepfake sono stati utilizzati su Zoom. I giornali hanno raccontato come alcuni parlamentari estoni e olandesi siano stati convinti di aver avuto una conversazione con Leonid Volkov, un politico russo a capo del personale della campagna elettorale presidenziale del 2018 di Alexei Navalny, quando invece era tutto falso. Un esempio di come anche politici che hanno alle spalle team di esperti in comunicazione digitale possano cadere nel tranello.Quali altri settori sono a rischio?Il settore industriale è esposto a un alto rischio. Nel rapporto CLUSIT del 2020, nel lungo periodo, è stimato che gli attacchi fondati sulla combinazione di tecniche di ingegneria sociale e di intelligenza artificiale, come il deepfake, cresceranno in maniera sostenuta, prettamente a danno di organizzazioni economiche. Basti pensare a tutti i servizi televisivi di denuncia o ai video che circolano sui social. Qualora le immagini riportare fossero false, un’azienda si potrebbe trovare davanti a una crisi reputazionale causata da una fake news ma che porta con sé ripercussioni – anche economiche e sociali – rilevanti. E, una volta rovinata, è difficile ricostruire un’immagine corretta agli occhi dei consumatori.Anche il mondo dell’editoria non è esente da rischi, se non altro per il proliferare di siti di (dis)informazione in cui risulterebbe semplice far circolare un contenuto manipolato. Una foto, un video o una registrazione possono essere ripresi da tutte le testate giornalistiche e ogni piattaforma social in pochi minuti, rischiando di intaccare la reputazione di soggetti, con notizie non accertate e non verificate. Ad esempio, Striscia la Notizia nel 2019 aveva utilizzato un video fuori onda deepfake di Matteo Renzi, per un servizio, seguito poi da altre puntate. Un episodio che avevano generato molto scalpore e aveva alimentato la discussione anche sull’eticità di questi video deepfake per fare satira.Come riconoscere i deepfake?Esistono, però, degli strumenti in grado di comprendere se il contenuto sia originale o meno: un esempio è XceptionNet, programma sviluppato da un team di ricercatori della Università Tecnica di Monaco, proprio per cercare nei file video le tracce di una manipolazione.Un altro esempio è l’algoritmo sviluppato da Siwei Lyu, professore d’informatica e direttore del Computer Vision e Machine Learning Lab dell’Albany State University di New York. Il software basato su questo algoritmo, quando analizza un contenuto per identificare la manipolazione di un video, come primo elemento scandaglia i pixel in alcuni fotogrammi specifici. In alcuni casi, sebbene il contenuto deepfake sia molto realistico, se il soggetto non guarda direttamente in camera, ciò che lo crea distorce leggermente l’immagine disallineando certi tratti somatici in maniera impercettibile. Queste distorsioni vengono rilevate in modo da verificare l’autenticità o meno del contenuto.Anche Microsoft ha sviluppato uno strumento per individuare i deepfake. Il software in questione analizza foto e video per dare un punteggio sulla probabilità che il materiale sia stato creato artificialmente. Lo scopo dell’azienda è che la tecnologia aiuti a “combattere la disinformazione”. Per costruirlo, l’azienda ha applicato le proprie tecniche di machine learning a una serie di dati pubblici di circa mille sequenze video deepfake e ha poi testato il modello risultante su un database ancora più grande creato da Facebook.Sempre Microsoft ha poi creato un metodo che possa certificare un contenuto come originale o meno: nello specifico, inserendo una sorta di filigrana di autenticità, si riuscirà a valutare lo stato dell’oggetto specifico. Su Internet, inoltre, è possibile trovare anche siti, tra cui Deep ware, capaci di valutare, indicativamente, se un contenuto sia originale o modificato.
Cosa sono i ciucci digitali e perché è meglio non usarli - Focus.itLa nostra fede - Radio Vaticana - Vatican News
Indiscrezione su Putin: ha il Parkinson e si dimetterà
Terremoto in Svizzera: sisma di magnitudo 3.6La circolazione dei treni sulla linea Milano-Genova è stata bloccata per circa sei ore per una fuga di gas a Pavia - Il Post
Note Legali del Vatican News - Vatican NewsOlimpiadi: a Parigi uno strumento AI di Alibaba per ridurre il consumo energetico - AI news
Adobe ruba il lavoro degli utenti? La polemica accende il dibattito sul futuro del lavoro creativo - AI newsHebdomada Papae, il Gr in latino del 27 luglio - Vatican News
Che ne sarà dei minori ucraini ospitati in un paesino della bergamasca - Il PostLockdown totale in Austria, Kurz: “Unico strumento che funziona"Elezioni Usa 2020, il possibile pareggio tra Trump e BidenIl comune di Napoli sta pensando di dare dei soldi agli sfollati di Scampia per una casa in affitto - Il Post
Microsoft 365 Copilot, un'AI generativa per la produttività - AI news
Notizie di Esteri in tempo reale - Pag. 802
OpenAI rilascia GPT-4, più potente e multimodale - AI newsCoroncina della Divina Misericordia - Vatican NewsNetanyahu al Congresso Usa: uniti per la vittoria totale - Vatican NewsUccide il fidanzato della figlia: la confessione dopo un anno
Cerchiamo partner non più attraenti di noi - Focus.itSalti più lunghi e più alti alle Olimpiadi grazie alla pista "alle conchiglie"? - Focus.itGuerrero: bilancio Santa Sede, passi avanti in trasparenza e sostenibilità - Vatican NewsIn appena una settimana Kamala Harris ha raccolto 200 milioni di dollari per la campagna elettorale - Il Post