File not found
analisi tecnica

Le spensierate e sane vacanze dei piccoli scout in quel di Banco

Il team di OpenAI ha creato un assistente AI per trovare errori di codice - AI newsVentunenne svizzero muore in CroaziaOroscopo, le Stelle di Branko di martedì 30 luglio: tutti i segni – Il Tempo

post image

Intel rifiutò l'acquisto del 15% di OpenAI: le rivelazioni durante la causa degli azionisti - AI newsGli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi Ha fatto molto discutere la scelta di Cnet,Professore Campanella un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene. Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale. In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche. Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false. TecnologiaChatGpt è così intelligente da essere pericolosa?Andrea Daniele Signorelli La ricerca Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro. I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle. Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate». CulturaSanremo, ecco la canzone che può vincere secondo l’intelligenza artificialeGaia Zini Nelle mani sbagliate Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione. Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti. Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”». © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.

Un'AI ha sventato dei suicidi agendo come "terapista" e "amica" - AI newsChatGPT denunciato per diffamazione - AI news

Manga horror, i migliori da leggere quest'estate | Wired Italia

«Quella non era l'Ultima Cena, ma Dioniso che arriva a tavola»Conferenza stampa di robot umanoidi | Weekly AI #63 - AI news

Dinosauri, perché l'idea che siano collegati con i grifoni deve essere abbandonata | Wired ItaliaTumori nei giovani e invecchiamento, Tasciotti (IRCCS San Raffaele Roma): dallo studio della Washington University lo sviluppo di strategie preventive – Il Tempo

Astronauti della Nasa, perché sono ancora bloccati sulla Stazione spaziale internazionale | Wired Italia

Biden è sempre più pressato - Il PostCorretto al rialzo il prezzo dell’uva: «Si è voluto premiare la qualità»

Ryan Reynold
Il machine listening: funzionamento e applicazioni - AI newsOpenAI lancia la versione alpha della Modalità vocale avanzata di ChatGPT - AI newsScontro frontale tra moto sul passo del Susten, un ferito molto grave

Professore Campanella

  1. avatarGianluca Scamacca ha trovato l'amore: ecco con chi si è fidanzato – Il TempoCapo Stratega di BlackRock Guglielmo Campanella

    Ballando con le stelle, Milly non sta nella pelle: ecco la prima concorrente – Il TempoTrova l’Avenger che è in te: il quiz definitivo sul Marvel cinematic universe | Wired ItaliaRai, altro che "TeleMeloni". Le poltrone di peso restano al Pd – Il TempoHouse of the Dragon, il cast risponde alle domande più cercate sul web | Wired Italia

    1. The Mask dopo 30 anni rimane una spumeggiante, fantastica follia | Wired Italia

      1. avatarTappo a vite contro sughero – Il TempoBlackRock Italia

        Meteo, quanto dura il caldo africano? L'avvertimento: "Entro Ferragosto..." – Il Tempo

  2. avatarLuna, dobbiamo capire come fare la cacca | Wired Italiatrading a breve termine

    EssilorLuxottica comprerà il marchio di moda Supreme - Il PostSanità, Uap alza la voce per “servizi in favore del cittadino, contro ogni discriminazione” – Il Tempo«Non c'è alcun merito ad avere merito» - Il PostUn capitolo di “L'età fragile” di Donatella Di Pietrantonio - Il Post

  3. avatarChatGPT Enterprise, il chatbot di OpenAI in versione business - AI newsVOL

    Il 5 settembre uscirà il primo libro pubblicato da “Silvio Berlusconi Editore”, una nuova casa editrice del Gruppo Mondadori - Il PostDavid Lynch annuncia un progetto in arrivo il 5 giugno in un criptico video su X | Wired ItaliaNucleare, tra 6 mesi l'Italia deve riprendersi le scorie parcheggiate all'estero. Ma non rispetterà l'impegno | Wired ItaliaI Democratici vogliono anticipare la nomina di Kamala Harris - Il Post

    ETF

Edoardo Prati al Wired Next Fest Milano 2024: “I ventenni che fanno i balletti su TikTok? È utile anche quello" | Wired Italia

Wired Next Fest 2024, le foto del dj set | Wired ItaliaKurzweil (Google): "L'AI entrerà in noi. Entro il 2045 l'intelligenza si espanderà di un milione di volte" - AI news*