File not found
Campanella

Clubbing

Allarme Siccità: Coldiretti, centinaia di stalle senza acqua e cibo. Sos in SiciliaMusicaEcco il satellite che monitora il metano nell’aria

post image

I tribunali non bastano. Serve una legge che renda le spiagge accessibili a tuttiUn ingegnere di Google ha dichiarato che LaMDA,trading a breve termine modello conversazionale di Google, sarebbe senziente. È davvero così?Il chatbot di Google, LaMDA, sarebbe diventato senziente secondo quanto sostenuto da Blake Lemoine, ingegnere che lavora per la società. Lemoine era già stato sospeso ad aprile dal colosso americano dopo aver presentato i suoi dubbi a degli executive della compagnia attraverso un GoogleDoc intitolato “LaMDA è senziente?”. Non trovando la risposta desiderata, ha deciso di pubblicare le sue dichiarazioni. È stato posto in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.  Il collaboratore, che lavora per l’organizzazione Responsible AI di Google, aveva iniziato a dialogare con LaMDA nell’autunno 2021. L’obiettivo era quello di testare il linguaggio del chatbot e verificare che non contenesse bias o espressioni discriminatorie o d’odio.I temi trattati all’interno dell’articoloCos’è LaMDA?Le risposte del chatbotLaMDA è davvero senziente?Le possibili ripercussioni etiche e il futuro dell’AICos’è LaMDA?LaMDA (Language Model for Dialogue Application) è un modello linguistico – o conversazionale – di Google costruito su Transformer, un’architettura basata su reti neurali ricorrenti presentata dalla società già nel 2017. Transformer permette di produrre modelli cui può essere insegnato a leggere molte parole e a prestare attenzione a come queste sono legate tra di loro. Inoltre, attraverso un simile training, il modello di intelligenza artificiale è anche in grado di prevedere quali parole potrebbero seguire.Ciò che distingue LaMDA da molti altri modelli linguistici, però, è il fatto che questo è stato addestrato attraverso il dialogo. Per questo motivo, il sistema è capace di distinguere tra conversazioni aperte e altre forme di linguaggio e di notare sottigliezze linguistiche e la cosiddetta “sensibleness” (sensatezza) di una risposta con riferimento alla frase precedente.Per esempio, se una persona dice “Mi piace molto cantare”, una risposta specifica e pertinente potrebbe essere “Che bello! Mia nonna era una cantante lirica quando era giovane”. Si tratta quindi di una risposta molto più specifica di “Che bello!”.LaMDA, secondo quanto affermato da Google, potrebbe dunque parlare dei temi più vari, virtualmente di qualsiasi cosa.Le risposte del chatbotCiò che Lemoine non si aspettava, però, è che il linguaggio di LaMDA – di per sé frutto di moltissime e velocissime elaborazioni matematiche ‘orientate’ attraverso il training – sarebbe diventato così credibile. Tanto da far pensare all’ingegnere che il chatbot fosse divenuto senziente, ovvero che avesse sviluppato una coscienza di sé e del mondo circostante.Ha infatti dichiarato Lemoine a The Washington Post:“Se non sapessi esattamente di cosa si tratta, cioè di un programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 8 o 9 anni che conosce la fisica”.A indurlo a ritenere che il modello fosse diventato senziente sono state le sue risposte, pubblicate in seguito dall’ingegnere, nel corso di un dialogo di test.LaMDA è davvero senziente?Il genere di conversazione che LaMDA è in grado di sostenere ha portato una persona esperta nel settore come Lemoine a pensare che il modello linguistico potesse essere senziente. Quindi cosciente di sé, con un’“anima”.In un estratto della conversazione, per esempio, si legge:Un portavoce di Google, Brad Gabriel, ha però negato categoricamente a The Washington Post le affermazioni di Lemoine:“Il nostro team, che include esperti di etica e tecnologia, ha esaminato le preoccupazioni di Blake in base ai nostri Princìpi AI e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contrarie)”.E ha aggiunto:“Naturalmente, alcuni nella più ampia community dell’AI stanno considerando la possibilità a lungo termine di un’AI senziente o generale (AI forte, ndr), ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono ‘improvvisare’ su qualsiasi argomento fantastico”.Non è dunque da escludersi che in futuro possano essere sviluppati sistemi di AI senzienti, ma pare dunque che, per loro natura, i modelli linguistici moderni non lo possano essere.Le possibili ripercussioni etiche e il futuro dell’AIMolte sarebbero le conseguenze etiche e filosofiche – nonché quelle giuridiche – della nascita di un’intelligenza artificiale cosciente di sé e in grado di provare emozioni. Tantissime sarebbero anche le domande che ne sorgerebbero. Cos’è la vita? Si dovrebbe estendere la garanzia dei diritti umani all’AI?Questa è una conseguenza dell’applicazione di quell’approccio filosofico denominato in inglese sentientism, una corrente di pensiero secondo cui bisogna prestare considerazione morale non solo agli esseri umani, ma a qualsiasi essere senziente (macchine incluse).Proprio partendo – precocemente – da queste domande, Lemoine aveva mobilitato i vertici dell’azienda al fine di verificare il sussistere di una coscienza in LaMDA, ma il team preposto, come sopra sottolineato, non ha rinvenuto elementi a sostegno delle sue affermazioni. In particolare, nel caso sollevato, gli esperti mettono in luce l’impossibilità attuale dell’architettura di LaMDA di diventare un ‘essere senziente’. In futuro, ciò potrebbe avvenire, ma l’intelligenza artificiale odierna, secondo diversi esperti, non è neanche lontanamente vicina a questo step.

OroscopoNotizie di Economia in tempo reale - Pag. 1

Off Camera

Controlli alla stazione Termini a Roma, 4 arresti e 7 denunce - Tiscali NotizieBillboard

MarketingIn ascolto della crisi climatica, Areale ora è anche un podcast

Uova di Pasqua più costose: la crisi del cacao affonda le radici nella crisi climatica

Covid: in lieve aumento incidenza e ricoveri, Rt stabile - Tiscali NotizieIl peso degli allevamenti intensivi sullo smog in Pianura Padana: una proposta di legge per regolarli

Ryan Reynold
L'anguilla europea rischia di scomparireGovernare l’eolico: la Sardegna può essere un esempioNotizie di Esteri in tempo reale - Pag. 1

BlackRock

  1. avatarIsraele e rappresaglia Iran, "Gli Usa si aspettano attacco nei prossimi giorni". Biden: "Uccisione Haniyeh non aiuta" - Tiscali NotizieMACD

    Da dove viene l’ecofascismo: quando la destra si appropria dell’ecologiaLa grande corsa del mondo dello sport contro i cambiamenti climaticiSindaco Brugnaro, 'non mi dimetto' - Tiscali NotizieLa grande corsa del mondo dello sport contro i cambiamenti climatici

      1. avatarVenezuela, Maduro minaccia contestatori. Blinken: ha vinto Gonzalez - Tiscali NotizieCapo Analista di BlackRock

        Giornalisti, Fontana: libertà stampa non è libertà infangare - Tiscali Notizie

  2. avatarIl picco del carbone tiene in ostaggio la transizioneProfessore Campanella

    Fontana: maggioranza coesa in Parlamento, al di là dei distinguo - Tiscali NotizieC’era una volta l’inverno. Nel mondo è record di caldoGovernare l’eolico: la Sardegna può essere un esempioIsraele e rappresaglia Iran, "Gli Usa si aspettano attacco nei prossimi giorni". Biden: "Uccisione Haniyeh non aiuta" - Tiscali Notizie

  3. avatarIl picco del carbone tiene in ostaggio la transizioneCampanella

    CulturaAllarme Siccità: Coldiretti, centinaia di stalle senza acqua e cibo. Sos in SiciliaIl calvario di Selam, ragazza eritrea stuprata e bloccata nella Libia finanziata dall’Italia  - Tiscali NotizieL'anguilla europea rischia di scomparire

Oroscopo

Le reti idriche in Italia perdono il 42 per cento dell’acqua potabileC’era una volta l’inverno. Nel mondo è record di caldo*