File not found
criptovalute

Louise Smith, morta nel bosco: a processo marito della cugina

Notizie di Esteri in tempo reale - Pag. 777Il Presidente francese Macron è risultato positivo al coronavirusRussia, incendio in una casa di cura: deceduti 11 ospiti

post image

Europa, un morto di Covid ogni 17 secondi nell'ultima settimanaUn team dell’Università Deusto di Bilbao ha realizzato un interessante studio che lancia l’allarme sui rischi di potenziali ‘loop distruttivi’ tra l’uomo e l’AI: il paper (pubblicato da un portale specializzato) spiega che mentre realizziamo algoritmi includendovi senza volerlo i nostri pregiudizi ed errori,investimenti l’intelligenza artificiale può restituire di rimando feedback strutturati attorno agli stessi errori, influenzandoci a nostra volta. E non è tutto: ciò che di negativo o sbagliato l’AI insegna ad un gruppo sociale, viene assorbito in un automatismo quasi implicito. Di conseguenza le persone riprogrammeranno altre AI passando la stessa tendenza all’errore e così via. Un’influenza negativa reciproca talmente sottile e pervasiva da portare a conseguenze inimmaginabili.I temi trattati all’interno dell’articolo‘L’ottimismo AI’ nel settore medicoL’esperimentoInfluenza artificialeEreditarietà umana del pregiudizio AIUn utile promemoria‘L’ottimismo AI’ nel settore medicoLo studio porta le firme delle ricercatrici Lucía Vicente e Helena Matute. “Negli ultimi decenni – hanno spiegato – il numero di strumenti basati sull’intelligenza artificiale progettati per assistere le decisioni umane è aumentato in molti campi professionali, tra cui la giustizia, la selezione del personale e la sanità. Nel campo medico, l’avvento dei sistemi di supporto decisionale basati sull’IA somiglia alla promessa di minimizzare gli errori delle decisioni umane”.Le due autrici hanno scelto di concentrarsi proprio su un settore, quello medico, ad oggi caratterizzato da un grande ottimismo in relazione all’integrazione dell’AI con le tecniche normalmente utilizzate.“La collaborazione tra intelligenza naturale e artificiale – hanno spiegato – è destinata ad accrescere le conoscenze e le capacità cliniche, nonché a compensare alcune delle debolezze umane, come i bias cognitivi e la vulnerabilità alla stanchezza riducendo gli errori diagnostici e migliorando le decisioni cliniche. Tuttavia, questi strumenti AI non sono immuni da errori e pregiudizi“. Geoffrey Hinton: “L’AI è pericolosa” | Weekly AI news #54L’esperimentoL’osservazione si è sviluppata in in tre fasi. Nel corso di queste, 169 partecipanti volontari (tutti studenti di psicologia) hanno completato un compito di classificazione a tema medico; dovevano, essenzialmente, giungere ad una diagnosi corretta di una malattia della pelle fittizia chiamata Lindsay Syndrome. Ai partecipanti era richiesto di osservare alcuni campioni di tessuto forniti e individuare la presenza o meno della malattia utilizzando alcune semplici regole precedentemente comunicate, incentrate sulle diverse proporzioni di cellule scure e chiare.Un gruppo era supportato da un sistema AI – opportunamente ‘distorto’ con un errore sistemico – e l’altro no. “Cannibalismo digitale”? Dati artificiali e AI degenerativaInfluenza artificialeIl gruppo privo di AI è riuscito a giungere alla formulazione di una diagnosi; l’altro gruppo invece si è fatto comprensibilmente trarre in inganno dall’influenza negativa dell’assistente digitale. La fase successiva ha svelato la capacità di influenza digitale sul cervello umano. Al gruppo di partecipanti precedentemente assistito dall’AI è stato richiesto di svolgere nuovamente il compito, ma senza lo strumento: hanno commesso gli stessi errori che l’AI li aveva portati a commettere durante la fase precedente. In sostanza, le risposte dei partecipanti rispecchiavano il pregiudizio dell’AI anche quando l’AI non stava più fornendo suggerimenti diretti. Meta AI addestrata con i dati di Facebook e InstagramEreditarietà umana del pregiudizio AII risultati hanno fornito prove molto concrete dell’ereditarietà umana del pregiudizio dell’intelligenza artificiale. Che l’AI sia fallace se nutrita con dati guasti o falsati non è certo un mistero. Ma che i gruppi sociali possano farsi influenzare passivamente proprio da quegli errori fino addirittura ad interiorizzarli nelle attività ‘extra AI’ è un’opzione che apre a scenari inquietanti. “È un risultato preoccupante – spiegano le autrici dello studio -, ma è importante essere consapevoli di questo fenomeno in modo da poterlo prevenire o mitigare“. Human in the Loop, l’uomo al centro dell’algoritmoUn utile promemoriaLe persone tendono oggi a percepire gli algoritmi AI come obiettivi, sicuri e imparziali, ma spesso non si tiene conto del fatto che gli algoritmi AI sono un prodotto del design umano: un’aggregazione di caratteristiche.Lo studio ci ricorda che, sebbene molti strumenti basati sull’AI si dimostrino spesso utili, le loro prestazioni sono tutt’altro che perfette: la maggior parte delle AI deve ancora essere validata in contesti reali. Pertanto, sebbene l’AI possa aiutare a superare alcuni dei limiti del ragionamento umano, i nuovi problemi che potrebbero sorgere nell’interazione uomo-AI andranno opportunamente gestiti. Nell’attesa che questo diventi un tema preponderante, in ogni contesto occorre ricordare che i sistemi distorti potrebbero talvolta diminuire anziché aumentare la correttezza delle decisioni, in quel processo decisionale collaborativo tra intelligenza digitale e umanità che sarà sempre più frequente da ora in avanti.

New York: 650 morti Covid in camion frigoriferi da aprileNon indossa la mascherina e se ne vanta sui social: infermiera sospesa

Morto Didi Filgueira, causa Covid, il giorno dopo l'elezione a sindaco

Berlino, il vecchio aeroporto sarà riconvertito in centro vaccinazioniDenuncia la fine dei in terapia intensiva: medico viene licenziato

Il monolite misterioso nel deserto dello UtahUsa, vaccino in diretta tv per il vicepresidente Mike Pence

Scontri tra manifestanti e polizia a Berlino

In Spagna la vaccinazione inizierà il 4-5 gennaio 2021Il vaccino anti-covid del mercato nero cinese presto in Italia?

Ryan Reynold
Matilde, la cagnetta incinta che ha salvato 4 anziani da un incendioMike Pompeo invita 900 persone al party di NataleDonald Trump voleva bombardare l'Iran: target sito nucleare

trading a breve termine

  1. avatarNamibia, Adollf Hitler è stato eletto consigliere distrettualeCapo Analista di BlackRock

    Covid, a Londra la polizia interrompe un battesimo con 30 persone"Ho bisogno di una pausa", mamma di 8 figli fugge in SpagnaPescatori italiani detenuti in Libia: ci sarà uno scambio prigionieri?Coronavirus, il figlio di Donald Trump è positivo

    VOL
    1. Scontri a Parigi, disordini alla Marcia per le libertà

      1. avatarTerremoto in Grecia, scossa di magnitudo 5 al largo di CretaEconomista Italiano

        La nonna che starnutisce, il nuovo murales di Banksy

  2. avatarBagnante ucciso da uno squalo a Cable Beach, AustraliaBlackRock Italia

    Elezioni Usa, Corte Suprema respinge ricorso di TrumpMorto il cardinale polacco Gulbinowicz, accusato di abusi sessualiTempesta di neve negli Usa: 1.344 voli cancellati per il maltempoCovid, Ungheria limita uscite per gli anziani

  3. avatarGel disinfettanti senza alcuna azione contro il Covid: la truffaanalisi tecnica

    Trump ammette sconfitta alle elezioni Usa: ora la transizioneEcco quali paesi in Europa avranno gli impianti sciistici apertiBelgio, a Natale la polizia controllerà i cenoni13enne costretta a prostituirsi dalla madre: 170 indagati

Usa, influencer trovata morta sul ciglio di una strada

Giappone, nuovi casi di influenza aviaria ad HiroshimaVaccino Covid, Oms: "Il mondo può cominciare a sognare"*