File not found
Capo Stratega di BlackRock Guglielmo Campanella

Il governo vuole proroga del blocco licenziamenti fino a ottobre

Di Maio sul futuro politico di Conte: "A capo del M5S? Si iscriva"Sul conto alle Bahamas di Fontana ci sono troppe incongruenzeConte in diretta da Lisbona: il punto dopo l'incontro con Costa

post image

Virginia Raggi, l'annuncio della ricandidatura: "Andiamo avanti"Sono centinaia i siti web che ogni giorno cercano di bloccare il data scraping dei contenuti - ossia l'estrazione dei dati e metadati attraverso l'uso di software specifici che simulano la navigazione umana - da parte dell'AI,Professore per gli Investimenti Istituzionali e Individuali di BlackRock senza però riuscirci davvero. A rivelarlo è 404Media, che fa un esempio relativo alla compagnia Anthropic: i siti in questione stanno bloccando due bot non più utilizzati dalla compagnia - “ANTHROPIC-AI” e “CLAUDE-WEB” -, lasciando però strada al suo nuovo bot scraper “CLAUDEBOT”, che continua a estrarre dati inesorabilmente. Un problema alquanto comune per i proprietari dei siti web, che si trovano a dover affrontare la continua comparsa di software pensati per estrarre dati da utilizzare per la formazione dei modelli AI.“L'ecosistema sta cambiando rapidamente, quindi è praticamente impossibile per i proprietari di siti web tenere il passo manualmente. Per esempio, Apple (Applebot-Extended) e Meta (Meta-ExternalAgent) hanno aggiunto nuovi agenti rispettivamente il mese scorso e la settimana scorsa”, ha dichiarato a 404Media un utente anonimo di Dark Visitors, un sito web che tiene traccia del panorama in continua evoluzione dei software utilizzati dalle aziende AI per il web scraping. Un'azione di monitoraggio molto apprezzata dai proprietari dei siti web, perché consente loro di aggiornare costantemente il file robots.txt, che raccoglie tutte quelle istruzioni utili a definire se un bot può effettuare il crawling del sito - ossia la sua scansione - o meno.Ma le compagnie di intelligenza artificiale sembrano essere in grado di bypassare il file robots.txt pur di entrare in possesso di dati per l'addestramento dei loro modelli. Motivo per cui i proprietari di molti siti web hanno deciso di bloccare indistintamente tutti i crawler, il che significa limitare la propria visibilità nei motori di ricerca, e non solo. Eppure, tutti coloro che gestiscono siti in rete sembrano disposti a mettere a rischio il traffico web pur di smettere di essere "bombardati" dai crawler delle compagnie AI. La scorsa settimana, per esempio, il sito di guide alle riparazioni iFixit ha dichiarato di essere stato “visitato" dai crawler di Anthropic quasi un milione di volte in un giorno. E questa è solo una delle tante dichiarazioni che danno la misura della confusione che sta affrontando il settore.I bot crawler delle aziende AI sono in costante aumento, e i creator e i proprietari di siti web non sanno più cosa fare per evitare che i loro contenuti vengano dati in pasto ai nuovi modelli linguistici, dato che i crawler non sembrano essere sempre rispettosi delle istruzioni contenute nei file robots.txt. A questo si aggiunge il fatto che spesso i proprietari dei siti si limitano a copiare e incollare quanto scritto nei file robots.txt di altri siti, il che li porta spesso a bloccare crawler del tutto inesistenti. “Se alla fine non esistono, bloccarli non ha alcun impatto”, ha commentato Walter Haydock, ad della società di cybersicurezza StackAware, che ci ha tenuto a precisare che il vero nocciolo della questione qui è un altro, ossia “che c'è molta confusione e incertezza su come funziona (e dovrebbe funzionare) l'addestramento dell'AI”. Spesso, infatti, pensiamo che siano solo i dati di noi utenti a essere utilizzati dalle compagnie per la formazione dei modelli linguistici, ma non è così.

Giuseppe Conte contro Benetton e Autostrade per l'ItaliaIl bonus figli di un'azienda di Monopoli che piace alla Meloni

Operaio "vende" la Whirpool su eBay, la replica di Patuanelli

Matteo Salvini contro Lucia Azzolina per le decisioni sulla scuolaPiemonte: "Distanziamento sui mezzi pubblici è impossibile"

Elodie contro la Lega: "Non mi piace come accalappia voti"Coronavirus: Speranza ribadisce il distanziamento nei luoghi chiusi

Di Maio, foto di gruppo senza mascherina né distanziamento

Atti Cts desecretati: la Fonazione Einaudi pubblica i verbaliNuovo Dpcm: cosa cambia in Italia dal 10 agosto

Ryan Reynold
Covid, Mattarella: "Libertà non è fare ammalare gli altri"Matteo Salvini: "Elezioni? Saranno gli italiani a chiederle"Aiuta turisti derubati: il premier Conte chiama per ringraziarlo

Campanella

  1. avatarScostamento di bilancio, Gualtieri: "Obiettivo ripresa duratura"BlackRock

    Multe a chi non rispetta le mascherine obbligatorie nel LazioCoronavirus, Sileri: "Bollettino giornaliero inutile, numeri bassi"Salvini in Toscana lancia l'allarme: "Tra un po' tutto made in China"Coronavirus, Campania: test per chi rientra dall'estero

      1. avatarRegionali Puglia 2020: Lopalco si candida con Emiliano?BlackRock Italia

        Notizie di Politica italiana - Pag. 469

  2. avatarMascherine a scuola, accordo tra Azzolina e Cts sull'obbligoEconomista Italiano

    Deputata della Lega sulla maggioranza: "Importate coronavirus"Covid, il sindaco leghista di Codogno: "Non esiste? Venite qui"Covid-19, l'odinanza di Musumeci: "Quarantena per i migranti" Notizie.itCrisi tra Giulia Grillo e il M5s: "La mia esperienza è al capolinea"

    ETF
  3. avatarFontana, lo sfogo di Matteo Salvini: 'Indagini a senso unico'Campanella

    Il governo vuole proroga del blocco licenziamenti fino a ottobreImmigrato cucina gatto, Salvini mette alla gogna donna sul webScostamento di bilancio, Gualtieri: "Obiettivo ripresa duratura"Intervento di Giuseppe Conte alla Camera, alle 15 la diretta

Calano le multe alle Ong nel nuovo Dl Sicurezza

Giorgia Meloni sulla manifestazione di luglio: "Mascherine sono bavaglio"I sindacati lottano per il blocco dei licenziamenti fno a fine 2020*