Bambina di 2 anni abusata a Sydney mentre è al parco giochiDetenuto morto si sveglia sul tavolo dell'autopsia: la storia di Gonzalo Montoya JimenezFinale Italia - Inghilterra, allarme degli esperti su possibile impennata dei contagi
Coronavirus, allarme variante Delta in California: +17% di casiNuove tecnologieLa «rivoluzione» dell’Europa mette un freno al grande fratelloDopo mesi di discussione l’Unione ha approvato in via definitiva la legislazione sull’intelligenza artificiale - Le applicazioni contrarie ai valori comuni,VOL come ad esempio i sistemi di videosorveglianza di massa, saranno vietate - Il complesso delle norme in vigore dal 2026L’Unione Europea ha dato il via libera definitivo alla legge che regola l’uso dell’intelligenza artificiale nei 27 Paesi membri. ©CdT/Gabriele Putzu Dario Campione21.05.2024 21:30Dopo un lunghissimo dibattito e vari passaggi procedurali, è arrivato il via libera definitivo alla legge europea sull’intelligenza artificiale, l’AI Act, già largamente votata a marzo dal Parlamento (523 a favore, 46 contrari e 49 astenuti) e varata ancora prima, a dicembre, con un accordo tra i Governi. Una «legge rivoluzionaria», l’ha definita lo stesso Consiglio d’Europa nel comunicato ufficiale. E non è usuale, né frequente, trovare in una nota stampa aggettivi simili a commento di un atto istituzionale. Importante, certo. E fortemente innovativo. Ma quanto in grado di «rivoluzionare» il sistema politico-sociale, è ancora tutto da chiarire. E da verificare sul campo. Per Bruxelles, tuttavia, l’AI Act, la norma che regola l’utilizzo dell’intelligenza artificiale nei 27 Paesi dell’Unione, è una vera e propria svolta. Anzi: un potenziale punto di riferimento globale per una tecnologia utilizzata negli affari e nella vita di tutti i giorni. L’AI Act europeo, sostengono in effetti molti osservatori, è più completo dell’approccio di conformità volontaria adottato negli Stati Uniti e sicuramente più democratico e libertario del criterio utilizzato in Cina, in gran parte orientato al controllo capillare (attraverso soprattutto la videosorveglianza) e al mantenimento della stabilità sociale.Le nuove regole europee entreranno in vigore a tappe. Mentre l’intera legislazione si applicherà soltanto a partire dal 2026, alcuni divieti saranno attivi nel giro di pochi mesi, dopo il varo cioè del regolamento. In particolare: subito sarà vietato utilizzare l’intelligenza artificiale per il cosiddetto «social scoring», vale a dire l’analisi basata su comportamenti o caratteristiche personali o su tecniche che mirano a manipolare il comportamento umano; saranno interdette le pratiche di «polizia predittiva», ovvero il riconoscimento delle emozioni, che suscita una gigantesca preoccupazione per la privacy e l’integrità dei singoli; non si potrà fare poi lo «scraping» indiscriminato, cioè a dire la raccolta di immagini facciali da Internet o da telecamere a circuito chiuso per creare database di riconoscimento facciale senza specifici obiettivi (in sostanza, la sorveglianza di massa che caratterizza il grande fratello cinese, voluto fortemente da Xi per impedire ogni accenno di dissenso). Gli obblighi di trasparenzaLe preoccupazioni sul fatto che l’intelligenza artificiale contribuisse alla disinformazione, alla diffusione di fake news o di materiale protetto da copyright hanno spinto l’UE ad accelerare i tempi dell’approvazione dell’AI Act. E sicuramente, in questo senso, una ulteriore spinta è giunta dalla crescente popolarità dei sistemi cosiddetti «generativi» - OpenAI o ChatGPT - ormai liberamente fruibili su computer e telefonini.E tuttavia, questi sistemi di intelligenza artificiale, giudicati dal legislatore europeo a «rischio limitato», saranno soggetti a obblighi di trasparenza molto leggeri, al contrario di quelli ad «alto rischio», utilizzati ad esempio nelle infrastrutture critiche, nell’istruzione, nelle risorse umane o nell’attività di contrasto alla criminalità. Questi ultimi dovranno possedere requisiti rafforzati prima di essere autorizzati nei Paesi dell’Unione. Ad esempio: il controllo umano sulla macchina, la creazione di una documentazione tecnica o l’implementazione di un sistema di gestione dei rischi. I veri e propri divieti saranno invece rari. Riguarderanno, come detto, applicazioni contrarie ai valori europei, come la classificazione dei cittadini o i sistemi di sorveglianza di massa utilizzati dal regime di Pechino.L’approccio sul rischioLa nuova legislazione, ha spiegato lo stesso Consiglio UE, «segue un approccio basato sul rischio: maggiore è il rischio di causare danni alla società, più severe sono le norme». L’obiettivo dichiarato è «promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale sicuri e affidabili in tutto il mercato unico dell’UE da parte di attori pubblici e privati. Allo stesso tempo, garantire il rispetto dei diritti fondamentali dei cittadini e stimolare gli investimenti e l’innovazione». La preoccupazione che norme troppo restrittive potessero limitare la possibilità per il Vecchio Continente di reggere la competizione con gli Stati Uniti ha spinto, nella fase di discussione, alcuni Paesi - la Francia in particolare - a insistere su una maggiore flessibilità. Il compromesso raggiunto stabilisce che la legge sarà applicata soltanto ai settori all’interno del diritto dell’UE e prevederà alcune importanti esenzioni, ad esempio per i sistemi utilizzati per scopi militari e di difesa, nonché per scopi di ricerca.In ogni caso, le multe per le violazioni saranno potenzialmente rilevanti e onerose: da un minimo di 7,5 milioni di euro (o, in alternativa, l’1,5% del fatturato) a un massimo di 35 milioni di euro (o il 7% del fatturato globale).«Questa legge è storica, la prima del suo genere al mondo, e affronta una sfida tecnologica globale che crea anche opportunità per le nostre società e per le nostre economie - ha dichiarato in una nota Mathieu Michel, ministro della Digitalizzazione del Belgio, Paese presidente di turno dell’Unione - Con l’AI Act, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si tratta di nuove tecnologie, garantendo allo stesso tempo che questa tecnologia in rapida evoluzione possa prosperare e stimolare l’innovazione europea».In questo articolo: Intelligenza ArtificialeUnione EuropeaOpenAIChatGPT
Grecia: scossa di terremoto di magnitudo 5.2 in mareUsa, 28enne no vax si pente in punto di morte: “Il Covid non è una bufala, è tutto vero”
Cina, divieto di ritorno in classe per i bambini se non si è vaccinata tutta la famiglia
Usa, verso l'obbligo vaccinale per i dipendenti pubblici a New YorkAfghanistan, la foto simbolo della fuga da Kabul: 640 persone dentro il cargo Usa
Covid, impennata di casi a Mykonos: bandita la musica dai localiIn New Jersey ha aperto il primo bar firmato Oreo
San Marino Covid free, guarito l'ultimo paziente positivo: è il primo Stato in EuropaCantante annusa il fiore tossico di una Brugmansia: ecco cosa le è successo
Maltempo in Belgio, pesanti allagamenti e forti temporali in ValloniaCoronavirus, allarme variante Delta in California: +17% di casiHaiti, sale il bilancio delle vittime del terremoto: 724 morti e almeno 2800 i feritiCina, boom di contagi Covid: a Nanchino il focolaio peggiore dopo quello di Wuhan
Stati Uniti, allarme bomba al Campidoglio: squadre speciali in azione
Scimmie trovate morte nei sacchi di juta in india: sono state avvelenate
Covid, infettivologa USA: "Sto esaurendo la mia compassione per i non vaccinati"Incendi in Turchia, 4 le vittime: continuano le operazioni di soccorsoAfrica, il numero dei morti di Covid è aumentato del 43% in una settimanaGermania, forte tempesta: presunto tornado si abbatte sul distretto settentrionale
Crollo a Miami Beach, trovati altri 14 morti sotto le macerieAssistente di volo vaccinato muore di covidMiek Egberts morta in un incidente stradale: il figlio 18enne è in comaUSA, sparatoria ad una festa privata: un morto e un ferito