Guerra Russia-Ucraina, il leader nordcoreano Kim Jong-un appoggia Putin: "Pieno sostegno e solidarietà"Usa, Donald Trump incriminato: portò illegalmente via dei documenti dalla Casa BiancaWashington, un aereo sospetto si è schiantato: nessun superstite
USA, un 14enne afroamericano è stato ucciso dalla polizia in ColoradoNuove tecnologieLa «rivoluzione» dell’Europa mette un freno al grande fratelloDopo mesi di discussione l’Unione ha approvato in via definitiva la legislazione sull’intelligenza artificiale - Le applicazioni contrarie ai valori comuni,Professore per gli Investimenti Istituzionali e Individuali di BlackRock come ad esempio i sistemi di videosorveglianza di massa, saranno vietate - Il complesso delle norme in vigore dal 2026L’Unione Europea ha dato il via libera definitivo alla legge che regola l’uso dell’intelligenza artificiale nei 27 Paesi membri. ©CdT/Gabriele Putzu Dario Campione21.05.2024 21:30Dopo un lunghissimo dibattito e vari passaggi procedurali, è arrivato il via libera definitivo alla legge europea sull’intelligenza artificiale, l’AI Act, già largamente votata a marzo dal Parlamento (523 a favore, 46 contrari e 49 astenuti) e varata ancora prima, a dicembre, con un accordo tra i Governi. Una «legge rivoluzionaria», l’ha definita lo stesso Consiglio d’Europa nel comunicato ufficiale. E non è usuale, né frequente, trovare in una nota stampa aggettivi simili a commento di un atto istituzionale. Importante, certo. E fortemente innovativo. Ma quanto in grado di «rivoluzionare» il sistema politico-sociale, è ancora tutto da chiarire. E da verificare sul campo. Per Bruxelles, tuttavia, l’AI Act, la norma che regola l’utilizzo dell’intelligenza artificiale nei 27 Paesi dell’Unione, è una vera e propria svolta. Anzi: un potenziale punto di riferimento globale per una tecnologia utilizzata negli affari e nella vita di tutti i giorni. L’AI Act europeo, sostengono in effetti molti osservatori, è più completo dell’approccio di conformità volontaria adottato negli Stati Uniti e sicuramente più democratico e libertario del criterio utilizzato in Cina, in gran parte orientato al controllo capillare (attraverso soprattutto la videosorveglianza) e al mantenimento della stabilità sociale.Le nuove regole europee entreranno in vigore a tappe. Mentre l’intera legislazione si applicherà soltanto a partire dal 2026, alcuni divieti saranno attivi nel giro di pochi mesi, dopo il varo cioè del regolamento. In particolare: subito sarà vietato utilizzare l’intelligenza artificiale per il cosiddetto «social scoring», vale a dire l’analisi basata su comportamenti o caratteristiche personali o su tecniche che mirano a manipolare il comportamento umano; saranno interdette le pratiche di «polizia predittiva», ovvero il riconoscimento delle emozioni, che suscita una gigantesca preoccupazione per la privacy e l’integrità dei singoli; non si potrà fare poi lo «scraping» indiscriminato, cioè a dire la raccolta di immagini facciali da Internet o da telecamere a circuito chiuso per creare database di riconoscimento facciale senza specifici obiettivi (in sostanza, la sorveglianza di massa che caratterizza il grande fratello cinese, voluto fortemente da Xi per impedire ogni accenno di dissenso). Gli obblighi di trasparenzaLe preoccupazioni sul fatto che l’intelligenza artificiale contribuisse alla disinformazione, alla diffusione di fake news o di materiale protetto da copyright hanno spinto l’UE ad accelerare i tempi dell’approvazione dell’AI Act. E sicuramente, in questo senso, una ulteriore spinta è giunta dalla crescente popolarità dei sistemi cosiddetti «generativi» - OpenAI o ChatGPT - ormai liberamente fruibili su computer e telefonini.E tuttavia, questi sistemi di intelligenza artificiale, giudicati dal legislatore europeo a «rischio limitato», saranno soggetti a obblighi di trasparenza molto leggeri, al contrario di quelli ad «alto rischio», utilizzati ad esempio nelle infrastrutture critiche, nell’istruzione, nelle risorse umane o nell’attività di contrasto alla criminalità. Questi ultimi dovranno possedere requisiti rafforzati prima di essere autorizzati nei Paesi dell’Unione. Ad esempio: il controllo umano sulla macchina, la creazione di una documentazione tecnica o l’implementazione di un sistema di gestione dei rischi. I veri e propri divieti saranno invece rari. Riguarderanno, come detto, applicazioni contrarie ai valori europei, come la classificazione dei cittadini o i sistemi di sorveglianza di massa utilizzati dal regime di Pechino.L’approccio sul rischioLa nuova legislazione, ha spiegato lo stesso Consiglio UE, «segue un approccio basato sul rischio: maggiore è il rischio di causare danni alla società, più severe sono le norme». L’obiettivo dichiarato è «promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale sicuri e affidabili in tutto il mercato unico dell’UE da parte di attori pubblici e privati. Allo stesso tempo, garantire il rispetto dei diritti fondamentali dei cittadini e stimolare gli investimenti e l’innovazione». La preoccupazione che norme troppo restrittive potessero limitare la possibilità per il Vecchio Continente di reggere la competizione con gli Stati Uniti ha spinto, nella fase di discussione, alcuni Paesi - la Francia in particolare - a insistere su una maggiore flessibilità. Il compromesso raggiunto stabilisce che la legge sarà applicata soltanto ai settori all’interno del diritto dell’UE e prevederà alcune importanti esenzioni, ad esempio per i sistemi utilizzati per scopi militari e di difesa, nonché per scopi di ricerca.In ogni caso, le multe per le violazioni saranno potenzialmente rilevanti e onerose: da un minimo di 7,5 milioni di euro (o, in alternativa, l’1,5% del fatturato) a un massimo di 35 milioni di euro (o il 7% del fatturato globale).«Questa legge è storica, la prima del suo genere al mondo, e affronta una sfida tecnologica globale che crea anche opportunità per le nostre società e per le nostre economie - ha dichiarato in una nota Mathieu Michel, ministro della Digitalizzazione del Belgio, Paese presidente di turno dell’Unione - Con l’AI Act, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si tratta di nuove tecnologie, garantendo allo stesso tempo che questa tecnologia in rapida evoluzione possa prosperare e stimolare l’innovazione europea».In questo articolo: Intelligenza ArtificialeUnione EuropeaOpenAIChatGPT
Terremoto in Nuova Caledonia, scossa di magnitudo 7.1Donald Trump inchiodato, un audio rivela la sua colpevolezza: ecco il contenuto
Condannata la peggior "serial killer" d'Australia: 20 anni dopo si scopre che era innocente
Giappone, due meloni battuti all'asta per 23 mila euroRitrovati 4 bambini nella giungla in Colombia: sono sopravvissuti ad un incidente aereo
Catturato e ucciso lo squalo che ha sbranato un turista russo nel Mar RossoSottomarino Titan, le parole dell'esperto: "Si stava rompendo"
Sottomarino scomparso, ex manager sollevò problemi di sicurezza: fu licenziatoBiden: "Un nostro default sarebbe catastrofico per il mondo intero"
Incendio all’Europa-Park in Germania, cosa è successoIncidente in Australia, bus si ribalta: almeno 10 mortiDiga in Ucraina: quali sono le conseguenze della distruzione?Terremoto a Tonga, Neiafu trema nella notte: scossa di magnitudo 6
Germania, esplosione in un grattacielo a Ratingen: 12 feriti, 8 gravi. Arrestato un No Vax
Francia, Sarkozy condannato a tre anni di carcere: uno lo passerà in cella
USA, sparatoria con case in fiamme: 6 morti, di cui 2 bambiniSottomarino Titan guidato con un joystick di poche decine di euro: la polemicaTurchia, Erdogan sull'affluenza record: "Trionfo della democrazia"Il Canale di Suez è rimasto bloccato per due ore
Incidente in Australia, bus si ribalta: almeno 10 mortiFlorida, donna uccisa dalla vicina: i figli "facevano chiasso"Catturato e ucciso lo squalo che ha sbranato un turista russo nel Mar RossoDomande a sfondo sessuale alle candidate per lavorare nell'ufficio di Bill Gates: è scandalo