Faro di Salvini su ferrovie, necessario massimo impegno - Tiscali NotizieOdio razziale, richiesta di archiviazione per Vannacci respinta dal gip del tribunale militarePer Bmw utile in calo a 3,1 miliardi nel trimestre - Tiscali Notizie
La Supercoppa italiana va in Arabia. Ma c’è chi inizia a ribellarsiIl nuovo appuntamento di AI Talks,Capo Stratega di BlackRock Guglielmo Campanella il nostro format di interviste alla scoperta dell’intelligenza artificiale, è con Mariarosaria Taddeo, Professor of Digital Ethics and Defense Technology presso l’Oxford Internet Institute. Oltre a insegnare all’Università di Oxford, Taddeo è anche Defense Science and Technology Fellow presso l’Alan Turing Institute di Londra. Il suo lavoro si focalizza soprattutto sull’analisi etica dell’AI, dell’innovazione digitale, della sicurezza e della difesa nazionale e dei conflitti cyber e la sua ricerca è stata pubblicata in numerosi saggi apparsi in riviste scientifiche come Nature e Science. Da luglio 2023, è anche membro del Consiglio di Amministrazione dell’Istituto Italiano di Tecnologia. Inizierei subito con una domanda che poniamo a tutti i nostri ospiti, una domanda semplice solo all’apparenza: cos’è l’intelligenza artificiale? È una domanda molto pertinente, specialmente in questo periodo in cui c’è tantissimo hype sull’AI. Tutti ne parlano e a volte ci si abbandona un po’ alla fantascienza. Diciamo subito che l’intelligenza artificiale non è una sola tecnologia. Identifica una categoria di tecnologie che stiamo sviluppando già dalla fine degli anni ’50. Con i miei colleghi, qualche anno fa, abbiamo pubblicato una definizione di questa tecnologia secondo la quale l’intelligenza artificiale è una risorsa di agenti autonomi capaci di interagire e di imparare da queste interazioni con l’ambiente che sta intorno a loro e che possono essere utilizzati per eseguire compiti che, se ad eseguirli fosse un essere umano, richiederebbero intelligenza. Quindi in realtà l’intelligenza artificiale non ha niente di artificiale, è una forma di agentità che fa delle cose senza l’intelligenza artificiale. Ed è per questo che funziona così bene, perché usa meno risorse, non ha bisogno dell’intelligenza per eseguire delle cose che invece noi facciamo utilizzando l’intelligenza. Quindi sfatiamo il mito: l’intelligenza artificiale non è intelligente.La tecnologia permette di accelerare l’innovazione in numerose aree, ma, spesso, l’implementazione di tecnologie all’avanguardia è accompagnata dal sorgere di rischi, il più delle volte prevedibili sin dalle fasi di ideazione e sviluppo, talvolta inaspettati. Come possiamo garantire che l’AI venga sviluppata e utilizzata in modo etico e responsabile, rispettando i diritti umani e i valori democratici? Ma, soprattutto, come possiamo definire questi valori? Mi soffermerei anzitutto su una parola: “garantire”. Una delle tentazioni che si possono avere quando si parla di intelligenza artificiale è pensare che, inserendo l’etica a monte, questa tecnologia si comporterà in maniera etica. Questa cosa non è vera, non è possibile. Non c’è una garanzia. Perché l’intelligenza artificiale sia uno strumento che lavori in maniera allineata ai nostri valori e ai nostri diritti, c’è bisogno di un costante monitoraggio. E questo è un processo difficile, nel senso che bisogna identificare i valori, bisogna tradurli, bisogna fare in modo che l’applicazione dei valori non sia di superficie, che non ci sia un cosiddetto “ethics-washing“. È una tecnologia che ha una complessità tale che può sfuggire al controllo degli esseri umani e quindi portare a conseguenze non desiderabili. Come identifichiamo questi valori? Alcuni potrebbero dire “Facciamo un’etica che è western-centric, che si basa sui valori occidentali, e parte del mondo non condivide questi valori”. Io sono un po’ più scettica. Penso che ci siano dei valori fondamentali che sono quelli inscritti nei diritti umani. Credo che la lezione kantiana della dignità umana rimanga centrale. A questi valori penso si debbano aggiungere i valori fondamentali delle democrazie liberali, che non sono molto distanti da quelli dei diritti umani, ma che hanno altri aspetti: la rappresentatività di diversi interessi, il rispetto delle minoranze e via dicendo. E, come abbiamo imparato, ci sono dei valori che hanno a che fare con l’ambiente che devono essere considerati. Quindi questa terra di diritti umani, valori fondamentali delle democrazie liberali e l’etica dell’ambiente ci danno lo spazio cartesiano sul quale mappare l’etica dell’intelligenza artificiale. La sfida è passare da questa fase di enunciazione di principi e valori a una fase di applicazione. Dobbiamo passare da un’etica delle challenges dell’AI a un’etica dei requirements dell’AI. Abbiamo capito quali sono i rischi, abbiamo capito quali sono i problemi. Adesso dobbiamo dare soluzioni specifiche che permettano alle persone di rispondere pragmaticamente alla domanda: che cosa dobbiamo fare perché l’intelligenza artificiale sia più sostenibile?Due aree applicative particolarmente rilevanti negli ultimi mesi e anni sono quelle della difesa nazionale e della sicurezza informatica. Si tratta di settori, quello militare e quello informatico, in cui l’intelligenza artificiale può essere un’alleata, ma anche una minaccia. Come viene utilizzata l’AI in questi ambiti? Sono più le opportunità o i rischi? Come per tutto il digitale, se mettessimo i rischi e le opportunità sui piatti della bilancia, sarebbe difficile trovare un equilibrio, perché, a seconda delle condizioni e dei contesti, l’uno potrebbe prevalere sull’altro. Lo sforzo è proprio quello di cercare di tenere una situazione di equilibrio costante, se non di vantaggio delle opportunità sui rischi.La difesa nazionale è cambiata radicalmente negli ultimi anni e l’utilizzo dell’intelligenza artificiale si innesta su quella che è stata una digitalizzazione dei processi. Però è un utilizzo che cambia molto i processi di decisione e di esecuzione. Nel campo della difesa, negli ultimi 12 anni, il dibatto è stato centrato sulle armi autonome, perché nel 2012 gli Stati Uniti rilasciarono una direttiva sull’autonomia in difesa. E questo è stato un dibattito interessante, seppur poco efficace nel determinare una governance di questa tecnologia. Inoltre, ha avuto l’effetto anche di lasciare in ombra altri usi dell’intelligenza artificiale che sono saltati all’evidenza più di recente. Lo spartiacque è la guerra in Ucraina, che ha reso evidente che l’applicazione dell’intelligenza artificiale nella difesa è a 360 gradi. E va dal supporto di misure logistiche – quanta acqua spedisco alle persone che sono al fronte, banalmente – agli utilizzi per l’intelligence. Si pensi all’Osint (Open source intelligence analysis), per cui i dati che pubblichiamo online possono essere raccolti dalle agenzie di intelligence e si utilizza l’intelligenza artificiale per analizzarli ed estrarre informazioni. Abbiamo l’utilizzo dell’intelligenza artificiale nei contesti cyber. In questo caso, l’intelligenza artificiale è un’arma a doppio taglio, perché è utilizzata sia per irrobustire i nostri sistemi, sia per creare nuove armi cibernetiche, i cosiddetti malware. Ma è anche un grandissimo cavallo di Troia, perché è uno strumento molto fragile da un punto di vista di cybersicurezza. Poi abbiamo gli usi cinetici, cioè l’utilizzo dell’intelligenza artificiale come armi autonome. Il primo caso risulta da un report delle Nazioni Unite del 2021, che ne riporta l’uso in Libia, e in Ucraina sappiamo che tutti e due i fronti hanno fatto affidamento o uso di questa tecnologia. Questa tecnologia rivela che sono state utilizzate armi che potenzialmente possono essere state messe in uso in modo completamente autonomo. Poi, in realtà, per un osservatore è impossibile discernere se invece ci fosse qualcuno che sovraintendeva alle operazioni di queste armi. Abbiamo anche l’utilizzo di intelligenza artificiale per identificare target, e questi sono i casi che abbiamo visto da Israele negli attacchi a Gaza. Per menzionare anche un uso positivo, in Ucraina l’intelligenza artificiale viene anche utilizzata per identificare le mine e cercare di sminare questo territorio che è uno dei Paesi con più mine al mondo. Si calcola che con l’intelligenza artificiale si riuscirà a eliminare le mine in un decimo del tempo che altrimenti sarebbe necessario.Microsoft: un’AI spia per le agenzie di Intelligence USAI vantaggi per la difesa sono tanti, perché dobbiamo pensare che noi viviamo in un mondo fatto di dati. Nel 2023 abbiamo prodotto 97 Zbyte di dati, quasi 21 miliardi di DVD. Questi dati sono un potenziale enorme, ma solo se qualcuno riesce a estrarre informazioni da questi dati, ed è sicuramente una cosa che l’intelligenza artificiale può fare. In difesa, l’informazione è fondamentale, quindi il vantaggio è cruciale. Detto questo, l’intelligenza artificiale è una tecnologia che ha dei problemi etici molto profondi e che si acuiscono quando si parla dell’utilizzo di questa tecnologia in domini ad alto rischio, come la difesa, in cui è a rischio la vita delle altre persone, soprattutto dei non combattenti. Il rischio principale è che quando si usa l’intelligenza artificiale per contesti cinetici, siccome questa è una tecnologia che ha una limitata predicibilità, è difficilissimo garantire che sia utilizzata nel rispetto dei principi che ci diamo, per esempio il principio di distinzione, che è un principio etico che sta alla base delle leggi internazionali umanitarie secondo cui non si può mettere a rischio l’incolumità dei non combattenti in maniera intenzionale. Dato che l’intelligenza artificiale può avere degli outcome che non sono predicibili, la nostra intenzionalità in quanto utilizzatori viene a cadere e non abbiamo un controllo adeguato di questa tecnologia. A questo, si aggiunge un’altra cosa: il “misuse“, cioè quando si utilizza male la tecnologia, e quindi questa facilita usi eticamente non accettabili. L’intelligenza artificiale amplifica questo problema. Esiste un’altra problematica: i report da Israele ci dicono che l’intelligenza artificiale è stata utilizzata sì con un controllo umano, ma che l’essere umano in carica aveva più o meno 20 secondi per validare in maniera più o meno automatica le decisioni dell’intelligenza artificiale. Questo è molto problematico perché significa che non c’è effettivamente una forma di controllo e che si avvalla un problema che noi abbiamo con la tecnologia in quanto specie umana, che è il cosiddetto tech bias, cioè noi tendiamo ad accettare in maniera poco critica le decisioni o i risultati che la tecnologia ci dà. Scherzando, io spesso dico: chi di noi ha mai rifatto i conti per vedere se la calcolatrice avesse ragione? L’intelligenza artificiale in difesa si può utilizzare, ci sono dei vantaggi, e in un contesto geopolitico come questo è importante che le nostre forze di difesa possano contare sulla tecnologia, ma è cruciale che si pongano in essere misure di governance interne per cui l’utilizzo di questa tecnologia accada sotto un controllo serio e approfondito dei suoi risultati, in cui la possibilità di sovrascrivere la decisione che la tecnologia prende da parte di un essere umano rimanga garantita, in cui la responsabilità per le conseguenze che l’utilizzo dell’intelligenza artificiale pone sia accertata e definita. Altrimenti i rischi sopraffanno le opportunità. Una delle questioni che mi pongono spesso è: “Perché ci dobbiamo occupare dell’etica dell’intelligenza artificiale in difesa, quando i nostri opponenti non lo fanno? Mentre noi ci occupiamo di etica, loro utilizzano la tecnologia, acquisiscono un vantaggio tattico o strategico“. Se dobbiamo utilizzare l’etica dell’intelligenza artificiale violando i valori di cui parlavamo prima, allora non vale neanche la pena difenderci. Possiamo arrenderci direttamente, perché stiamo già facendo quello che il nostro opponente fa. La difesa dei valori delle democrazie occidentali passa per l’etica anzitutto. Utilizzare l’intelligenza artificiale senza l’etica significa aver perso in partenza nei contesti della difesa.Le nostre interviste in formato podcast:Questo si lega anche a una critica che molti muovono all’Unione europea, dicendo che l’Europa regola ciò che ancora non ha. Cosa pensa di questa affermazione?Allora, è verissimo che l’Europa si è posta fino adesso più come l’arbitro in questa partita che come uno dei giocatori. Ed è vero che l’arbitro non vince mai la partita, però può essere fondamentale nel decidere chi la partita la vince. Non è vero che l’Europa regola ciò che non ha; l’Europa regola ciò che ha sul suo mercato, perché è vero che noi non la produciamo, ma è anche vero che siamo forse il mercato più ricco sul quale le aziende di tutto il mondo vendono i loro prodotti digitali e questa regolamentazione è cruciale. Ci sono due aspetti da considerare. Uno è che questa antinomia, questa contraddizione tra governance e innovazione, è figlia di una riflessione secondo me molto fallace. Per una ragione molto semplice: un mercato che ha una governance chiara è un mercato affidabile, e quindi è un mercato in cui si possono fare investimenti. Dovremmo avere una governance che è più completa, nel senso che, oltre alle regolamentazioni per limitare i rischi di questa tecnologia, dovremmo prevedere misure che ne supportino lo sviluppo. Faccio un esempio, in Italia non abbiamo una politica di talent retention. La governance è una strategia e la strategia funziona se mitiga i rischi, ma anche coglie o crea le opportunità. Ad esempio, in Italia abbiamo un supercomputer, ce ne sono otto in Europa. Quali sono le strategie perché queste capacità di calcolo così fondamentali siano messe a disposizione del contesto innovativo delle startup e della ricerca per favorire l’innovazione? Ecco, ci sono domande che necessitano anche quelle di una strategia, di un coordinamento. Ci sono 27 Paesi in Europa, mi riesce difficile pensare che l’innovazione possa nascere senza una forma di coordinamento e di supporto. Rispetto alla governance dell’intelligenza artificiale, cinicamente si potrebbe dire che, se l’intelligenza artificiale fa qualcosa di tremendamente negativo, se i rischi iniziano a essere superiori alle opportunità, questa tecnologia non viene adottata e quindi anche questo è un modo per frenare l’innovazione. Ma preferirei non essere cinica e porre la questione in un altro modo: tutti dicono che l’intelligenza artificiale è una tecnologia trasformativa ed è verissimo, cambia il modo in cui lavoriamo, in cui interagiamo con l’ambiente. È una tecnologia che si pone tra noi e l’ambiente, in quanto agente e non in quanto strumento. Queste trasformazioni sono profonde e hanno impatti profondi sul nostro modo di esistere in quanto esseri umani. Il vecchio adagio dice che il lavoro nobilita l’essere umano. Quando il lavoro cambia, come cambia il senso di dignità e di propria percezione che le persone hanno? E l’intelligenza artificiale ha anche impatti sociali molto profondi. Fake news e campagne di disinformazione ci hanno dimostrato come l’intelligenza artificiale possa avere un impatto profondo sulle nostre democrazie. Veramente vogliamo adottare questa tecnologia in maniera capillare e rischiare tutti questi aspetti? Io credo che nessun innovatore che non sia un innovatore scellerato risponderebbe di no a questa domanda. La definizione che ha utilizzato, che include il concetto di AI agente anziché strumento, sottolinea come, per regolare al meglio lo sviluppo e le applicazioni dell’AI, serva anche conoscerne il funzionamento. Come possiamo affrontare le sfide legate alla trasparenza, alla responsabilità e alla spiegabilità dei sistemi di intelligenza artificiale, specialmente in settori critici come la sanità, la giustizia e la difesa nazionale e con riferimento ai modelli più complessi e strutturati, con una black box particolarmente ampia? La black box, la mancata trasparenza di questa tecnologia, è purtroppo un aspetto per certi versi connaturato alla tecnologia stessa e più i modelli sono complessi, meno sono spiegabili, meno sono trasparenti. Ci sono delle scelte metodologiche, quando si progetta questa tecnologia, che possono migliorare trasparenza e spiegabilità. Però la soluzione a questi problemi non è necessariamente solo tecnologica. Cioè, è vero che, dati un input e un output, molto spesso non possiamo spiegare come l’output sia stato prodotto e quindi, se l’output è sbagliato, non possiamo contestarlo e via dicendo. Alla soluzione tecnologica, noi dobbiamo aggiungere misure di scrutabilità e controllo a posteriori. L’auditing dei processi in cui l’intelligenza artificiale viene inclusa è fondamentale per capire quando emerge un errore, quali elementi possono determinarlo e come mitigarlo. Se concordiamo sul fatto che l’intelligenza artificiale trasforma i processi decisionali, allora dobbiamo iniziare a pensare a come monitorare e controllare questi processi per poter capire quale sia l’impatto dell’intelligenza artificiale e intervenire quando questo impatto non è eticamente o socialmente accettabile.Questo è un altro aspetto importante dell’AI Act, che introduce questi elementi di certificazione di conformità, di assessment di conformità. Vanno in questa direzione, dell’auditing dei sistemi. Laddove non si può intervenire ex ante o a monte, si cerca di intervenire a valle o durante tutto il processo. Io credo che sia un approccio abbastanza efficace.E tornando all’aspetto etico, i modelli di linguaggio di grandi dimensioni, come la famiglia GPT di OpenAI, vengono addestrati su un vasto corpus di dati e informazioni. Parte di questi contiene bias cognitivi che, in sede di predisposizione dei dataset, si tenta di arginare. È possibile limitarne l’intrusione? Quanto dobbiamo intervenire in tal senso? Non si rischia di operare in eccesso, viziando l’oggettività delle risposte prodotte dai modelli? Penso al caso di Google Gemini, che, per un periodo, ha generato immagini inclusive, ma antistoriche. Il caso di Gemini mi è sembrato un effetto collaterale del politically correct. Ci sono alcune cose da considerare. Il bias riflette le discriminazioni che nella nostra società sono state perpetrate per secoli e quindi è uno specchio più che “un’intelligenza artificiale cattiva”. I bias vanno corretti nella misura in cui l’intelligenza artificiale prende delle decisioni che poi hanno un impatto sulle persone. Quindi mi preoccupo del sistema che determina l’accesso alle cure mediche in America, che si è scoperto discriminare gli afroamericani e gli ispanici. La correzione del bias significa gestione dei database. Abbiamo tante misure: ci sono i dati sintetici, abbiamo la possibilità di curare, di bilanciare, di integrare database per rendere le misure non più oggettive, ma socialmente giuste. È questo il principio. Per esempio, potrebbe essere un fatto che le donne sui 40 coi capelli bruni non ripagano il mutuo in tempo. Potrebbe essere un fatto oggettivo. Ma è ingiusto discriminare una persona sulla base del suo genere e del suo colore di capelli quando va a richiedere un mutuo? Quindi la correzione va fatta in termini di giustizia sociale, o di fairness. Il problema è quando la correzione non viene fatta in questo senso, ma per cercare di limitare i danni reputazionali o senza pensare ai possibili risultati non intesi. Il caso di Gemini è un ottimo esempio di un risultato non inteso. Quindi la correzione del bias è importante, ma va fatta avendo dei criteri etici a monte, e io credo che il criterio principale sia quello della giustizia sociale e ambientale.Le immagini false create dalla lotta ai bias di Gemini e altre notizie | Weekly AI #94Nelle applicazioni citate, i bias sono molto evidenti. Pensa che ci sia una maggiore difficoltà di individuazione con riferimento ai motori di ricerca? Molta gente ha iniziato a utilizzare Gemini e modelli simili per la ricerca di informazioni online. Se presentano informazioni viziate da questi argini sociali, pensa che ci possa essere un problema disinformazione? Anzitutto, bisogna dire che tutte le informazioni che cerchiamo online su qualsiasi motore di ricerca sono informazioni filtrate. Al minimo, sono informazioni che sono presentate in forma gerarchica, ci sono diverse pagine di ogni motore di ricerca. L’impaginazione non è casuale. E poi negli anni abbiamo imparato che sono anche personalizzate. Il dibattito qui è un po’ più ampio, perché ha a che fare col ruolo che le aziende – in questo caso Google, ma chiunque produca un sistema di accesso all’informazione – hanno. E ci muoviamo su una linea molto sottile, che è quella che va dalla censura alle capacità editoriali. Io credo che i tech providers abbiano delle responsabilità civiche, non civili. Perché il digitale è diventato un’infrastruttura delle nostre società, noi non possiamo vivere e funzionare senza questa tecnologia. Chi la produce non la produce solo in quanto azienda privata, acquisisce delle responsabilità civiche. Tra queste responsabilità c’è la necessità di applicare un controllo sulla base di regole che il legislatore deve definire. Quindi un controllo che non sia censura, ma che per esempio filtri la disinformazione, che ha un impatto negativo su tutta la società. Quindi, la disinformazione non rientra nel diritto di informarsi. Il punto è definire una linea e questa linea deve essere definita dal legislatore e applicata seriamente dai tech providers, i quali devono avere un ruolo esecutivo in questo contesto. Ed è un ruolo che non si può demandare del tutto dall’intelligenza artificiale, perché il caso di Gemini ci dimostra che “fatta la regola, trovato l’inganno”. Dobbiamo trovare delle soluzioni ibride e sono molto complesse, però bisogna farlo. E non bastano i watermarks. Non basta mettere lo stampino su un contenuto generato dall’intelligenza artificiale. Le campagne di disinformazione non sono efficaci perché le fa l’intelligenza artificiale. Nessun no-vax si è convinto della necessità di vaccinarsi perché c’erano articoli su Science e Nature che dicevano che era necessario farlo. L’origine non ha nessun impatto sull’efficacia delle campagne di disinformazione. Bisogna trovare altri metodi che riescano a mitigare i rischi sistemici delle campagne di propaganda informativa. Potrebbe farci degli esempi? Un lato importante, anche se non quello preminente, è la formazione degli utenti, cioè rendere tutti molto consapevoli del fatto che un buon 30% di quello che tutti leggiamo online è falso. Avere una content analysis: è importante che le aziende abbiano la capacità di attuare un monitoraggio sui contenuti, di identificare i contenuti falsi ed evidenziarli, se non bloccarli, in maniera evidente. Le campagne di disinformazione fanno leva sull’ingenuità degli utenti, quindi è quella ingenuità che bisogna proteggere. La libertà di espressione, per quanto mi riguarda, confligge con quello che in logica si chiama “valore del falso”. E poi c’è la necessità di contrastare anche culturalmente queste campagne informative. La disinformazione è anche un problema culturale. Serve recuperare quella fiducia, che invece si vuole minare, nelle istituzioni. Ora, per concludere, le farei una domanda più ‘pop’: qual è il suo p(doom)? Quanto pensa che sia probabile che l’intelligenza artificiale rappresenti un rischio esistenziale per l’essere umano? Allora, guardi, direi zero. Però, siccome sono una filosofa e devo lasciare un po’ di spazio al dubbio, dico uno per non sembrare completamente fideistica in questa cosa. Nessun rischio. L’intelligenza artificiale tecnicamente la chiamiamo un motore sintattico, cioè manipola dei simboli, dei contenuti, secondo delle regole, ma non capisce assolutamente il significato dei simboli. L’immagine del gattino per ChatGPT è una specifica configurazione di pixel. Non è un gattino. Che cosa sia un gatto ChatGPT non lo sa. Sa completare la frase “che ora…” perché statisticamente, sui trilioni di dati sui quali è stata allenata, a “che ora…” segue la parola “è?”. Nella misura in cui ChatGPT – o qualsiasi forma di intelligenza artificiale – non ha capacità semantiche sue, non potrà mai evolversi in niente di più che tanti computer molto potenti. Bisogna stare molto attenti, perché, siccome l’integrazione dell’intelligenza artificiale nella società sta avvenendo e avverrà in maniera sempre più capillare, i problemi seri di cui dobbiamo discutere sono quelli di cui abbiamo parlato. Le questioni come la singularity, la consapevolezza delle macchine, sono specchietti per le allodole, sono distrazioni pericolosissime, perché non abbiamo anni davanti a noi per definire le regole e capire, per esempio, come vogliamo utilizzare l’intelligenza artificiale per controllare i contenuti online. In alcuni casi abbiamo mesi. La fantascienza è bella il venerdì sera per distrarci dopo una settimana di lavoro, il sabato mattina ci ha già annoiato.
Maignan e il razzismo negli stadi: la Serie A ha perso un’altra occasioneNetanyahu visita Golan dopo attacco: la risposta sarà severa - Tiscali Notizie
L'Osa, 'manipolazione eccezionale nel voto in Venezuela' - Tiscali Notizie
Csm, scontro tra laici per la commissione che si occupa delle nomineNovità libri 2019: i migliori su amazon
L’Ue prova a fermare la protesta dei trattori: deroghe all’agricoltura per tutto il 2024Fonte vicina a Hezbollah, 'Fuad Shukr è sopravvissuto al raid' - Tiscali Notizie
Ida Teresi: «La riforma della giustizia politicizza i pm. Addio indagini sui clan»Il pilota un po’ ingegnere. Che lavoro farà Hamilton in Ferrari
Zelensky elogia le Forze Speciali ucraine: "Siamo orgogliosi di loro" - Tiscali NotizieIl premier britannico Starmer promette azioni contro attacchi con coltello - Tiscali NotizieVincenzo Bruno, Autore a Notizie.itGaza, i soccorritori a Khan Yunis: "Recuperati 300 cadaveri" - Tiscali Notizie
La nave abbandonata che attrae turisti in Islanda
Emergenza demografica pesa, 150mila lavoratori in meno l'anno - Tiscali Notizie
Giorgia Meloni al summit: "Pace non significa resa"Maternità surrogata, arriva l'ok della commissione del Senato per renderla un reato universaleMeloni: "Piatto preferito in Cina? Salmone e spaghetti, quelli in brodo". E mima gesto con la mano - Tiscali NotizieLibertà di stampa e conflitti tra politica e magistratura
Abuso d’ufficio, tutti i rischi (politici e giuridici) dietro la cancellazioneLuigi Scalfaro, quella volta che agì contro Silvio BerlusconiParigi 2024, con il caldo c'è un piano per l'acqua e nebulizzatori - Tiscali Notizie"Non trovo lavoro in Italia": lo sfogo di Blobbyfree