Francia, gli scontri del primo Maggio: nuove proteste per la riforma pensioniDiritto all'oblio introdotto in tutta l'Ue: lo chiede StrasburgoMessico, sparatoria a Cancun: 4 morti
Ancora orrore, almeno 10 migranti annegano al largo della TunisiaPer chi lavora nel mondo dell'intelligenza artificiale,Economista Italiano è il momento di sincronizzare gli orologi. L'AI Act, il regolamento europeo sull'intelligenza artificiale, è stato pubblicato sulla Gazzetta ufficiale dell'Unione europea. E diventa legge a tutti gli effetti. L'entrata in vigore è prevista tra 20 giorni. Dai quali scatterà la tabella di marcia per l'applicazione di quella che Commissione, Consiglio e Parlamento europeo hanno presentato come la prima legge al mondo che si occupa in modo complessivo di intelligenza artificiale.La tabella di marcia20 giorni dopo la pubblicazione nella Gazzetta ufficialeEntrata in vigore della legge6 mesiDivieto sui sistemi di IA con rischio inaccettabile9 mesiApplicazione dei codici di condotta12 mesiApplicazione delle regole di governance e degli obblighi per l'AI di scopo generale24 mesiInizio dell'applicazione dell'AI Act per i sistemi di IA (incluso l'Allegato III)36 mesiApplicazione dell'intero Regolamento per tutte le categorie di rischio (incluso l'Allegato II)Gennaio 2025L'AI Act è basato su una architettura a rischi, suddivisi in quattro livelli: minimo, limitato, alto e inaccettabile. Maggiore è il rischio, maggiori sono le responsabilità e i limiti per chi sviluppa o usa questi sistemi, fino ad arrivare ai modelli troppo pericolosi per essere autorizzati. Tra gli impieghi vietati si trovano le tecnologie per manipolare i comportamenti delle persone, la sorveglianza biometrica, la raccolta massiccia e illimitata di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola, i sistemi di punteggio sociale o la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.A sei mesi dall'entrata in vigore, quindi a gennaio 2025, scatta il blocco di questi sistemi vietati. L'unico caso in cui l'identificazione biometrica è ammessa sono quelli “la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere”. Una definizione che tuttavia lascia aperti molti spazi all'uso della sorveglianza digitale da parte degli Stati, che in seno al Consiglio hanno dato battaglia nei negoziati con il Parlamento, che hanno portato all'accordo sull'AI Act nella notte dell'8 dicembre scorso, per ottenere spazi di controllo attraverso gli algoritmi. Lo prevede proprio l'articolo 5 sui divieti: “Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto”.Primavera 2025Tre mesi dopo questo primo passo, entrano in azione i codici di condotta. Ossia gli impegni che sviluppatori, aziende e associazioni dell'industria prenderanno con l'Unione per garantire l'inclusione dei principi dell'AI Act nello sviluppo delle loro attività. In particolare, i codici di condotta sono pensati per allargare gli impegni in ambito di sostenibilità ambientale e sociale, formazione e alfabetizzazione, adozione di principi etici nella produzione di tecnologia. L'AI Act prescrive che si basino “su obiettivi chiari e indicatori chiave di prestazione che consentano di misurare il conseguimento di tali obiettivi”. Altrimenti, c'è il rischio che siano solo parole di tech-washing.Nel frattempo è già in opera l'AI Pact, l'accordo per adeguarsi prima all'AI Act: già 400 aziende hanno alzato la mano per dimostrare il loro interesse, anticipando il processo di conformità alle regole comunitarie per farsi trovare pronte quando scatteranno per tutti, come spiegano a Wired fonti della Commissione europea.Agosto 2025Ad agosto 2025 suona la campanella per i modelli di AI generale. Sono quelli in grado di svolgere compiti diversi (come creare un testo o un'immagine) e allenati attraverso un'enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. Siccome sono quelli che hanno maggiori effetti sulla popolazione e perciò devono rispettare obblighi più stringenti, gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un'AI. I contenuti deepfake devono essere etichettati come tali (attraverso sistemi come il watermarking, la filigrana digitale applicata a foto o video). E un utente deve sapere se sta interagendo con un chatbot.
Alaska, due elicotteri si schiantano durante un addestramento: 3 mortiAncora orrore, almeno 10 migranti annegano al largo della Tunisia
Incidente per il calciatore Sofian Kiyine, la sua auto sfonda una palestra: non è in pericolo di vita
Cosa sta succedendo in Sudan: come sono arrivati alla guerra civileSpagna, ha un infarto: morto annegato in una pozzanghera
Attentato San Pietroburgo, chi era il blogger russo Vladlen TatarskyOklahoma, la polizia cerca 2 adolescenti scomparse ma trova 7 cadaveri
Guerra in Ucraina, telefonata tra Macron e Biden: "Fondamentale il ruolo della Cina"Usa, la transizione energetica parte da New York: banditi i fornelli a gas
Usa, incendio distrugge impianto di riciclaggioKiev: ora Zaporizhzhia corre lo stesso rischio di FukushimaRe Carlo III è stato incoronato: ora è ufficialmente sovrano del Regno UnitoTerremoto di magnitudo 7.0 in Papua Nuova Guinea: l'area interessata
Emanuela Orlandi, Papa Francesco su Giovanni Paolo II: "Su di lui illazioni offensive e infondate"
La terra trema ancora in Turchia: terremoto di magnitudo 4.5
L'impresa di Beatriz Flamini: 500 giorni isolata in una grottaFrancia, riforma pensioni: via libera dal Consiglio costituzionaleRussia, terremoto da 5.8 nella penisola del KamchatkaRiforma della leva obbligatoria voluta da Putin: cos'è e come funziona
Infermiera morsa da squali alle Maldive: dopo l'aggressione si rituffa in acquaTerribile annuncio dell'Onu: tre operatori uccisi in DarfurCentrale nucleare di Fukushima-1, la TEPCO segnala la presenza di un buco alla base del reattoreRegno Unito, denunciato da sua madre e condannato all’ergastolo