File not found
Campanella

Covid, morto a Foggia il consigliere comunale Alfonso Fiore

Notizie di Politica italiana - Pag. 364Covid, Calenda: "Il Paese non tiene più, riapriamo tutto il 15 maggio"Laura Boldrini, condannato a sei mesi l'hater che l'ha minacciata

post image

Ordinanza di De Luca: tutto chiuso in Campania a PasquaSono centinaia i siti web che ogni giorno cercano di bloccare il data scraping dei contenuti - ossia l'estrazione dei dati e metadati attraverso l'uso di software specifici che simulano la navigazione umana - da parte dell'AI,Economista Italiano senza però riuscirci davvero. A rivelarlo è 404Media, che fa un esempio relativo alla compagnia Anthropic: i siti in questione stanno bloccando due bot non più utilizzati dalla compagnia - “ANTHROPIC-AI” e “CLAUDE-WEB” -, lasciando però strada al suo nuovo bot scraper “CLAUDEBOT”, che continua a estrarre dati inesorabilmente. Un problema alquanto comune per i proprietari dei siti web, che si trovano a dover affrontare la continua comparsa di software pensati per estrarre dati da utilizzare per la formazione dei modelli AI.“L'ecosistema sta cambiando rapidamente, quindi è praticamente impossibile per i proprietari di siti web tenere il passo manualmente. Per esempio, Apple (Applebot-Extended) e Meta (Meta-ExternalAgent) hanno aggiunto nuovi agenti rispettivamente il mese scorso e la settimana scorsa”, ha dichiarato a 404Media un utente anonimo di Dark Visitors, un sito web che tiene traccia del panorama in continua evoluzione dei software utilizzati dalle aziende AI per il web scraping. Un'azione di monitoraggio molto apprezzata dai proprietari dei siti web, perché consente loro di aggiornare costantemente il file robots.txt, che raccoglie tutte quelle istruzioni utili a definire se un bot può effettuare il crawling del sito - ossia la sua scansione - o meno.Ma le compagnie di intelligenza artificiale sembrano essere in grado di bypassare il file robots.txt pur di entrare in possesso di dati per l'addestramento dei loro modelli. Motivo per cui i proprietari di molti siti web hanno deciso di bloccare indistintamente tutti i crawler, il che significa limitare la propria visibilità nei motori di ricerca, e non solo. Eppure, tutti coloro che gestiscono siti in rete sembrano disposti a mettere a rischio il traffico web pur di smettere di essere "bombardati" dai crawler delle compagnie AI. La scorsa settimana, per esempio, il sito di guide alle riparazioni iFixit ha dichiarato di essere stato “visitato" dai crawler di Anthropic quasi un milione di volte in un giorno. E questa è solo una delle tante dichiarazioni che danno la misura della confusione che sta affrontando il settore.I bot crawler delle aziende AI sono in costante aumento, e i creator e i proprietari di siti web non sanno più cosa fare per evitare che i loro contenuti vengano dati in pasto ai nuovi modelli linguistici, dato che i crawler non sembrano essere sempre rispettosi delle istruzioni contenute nei file robots.txt. A questo si aggiunge il fatto che spesso i proprietari dei siti si limitano a copiare e incollare quanto scritto nei file robots.txt di altri siti, il che li porta spesso a bloccare crawler del tutto inesistenti. “Se alla fine non esistono, bloccarli non ha alcun impatto”, ha commentato Walter Haydock, ad della società di cybersicurezza StackAware, che ci ha tenuto a precisare che il vero nocciolo della questione qui è un altro, ossia “che c'è molta confusione e incertezza su come funziona (e dovrebbe funzionare) l'addestramento dell'AI”. Spesso, infatti, pensiamo che siano solo i dati di noi utenti a essere utilizzati dalle compagnie per la formazione dei modelli linguistici, ma non è così.

Covid, Sileri: "Speriamo zone bianche e gialle a maggio"Fontana ricorda la foto dell'infermiera scattata un anno fa

Di Maio chiama Conte per farlo entrare nel M5s

Coprifuoco alle 23, Tajani con Salvini: "Verifica tra 10 giorni per posticiparlo"Fabrizio Curcio a capo della Protezione Civile: sostituito Borrelli

Deputata M5s Federica Daga contro Grillo: "Io ci ho messo 6 mesi a denunciare la violenza"Abolizione del coprifuoco alle 22, previsto per oggi il voto in Parlamento

Nuovo Dpcm, Speranza: "Nessun allentamento delle misure"

Viminale, nuova circolare: aumentano i controlli in zona rossaScontro tra Letta e Salvini sul coprifuoco: "Il PD vuole tenere in casa gli italiani"

Ryan Reynold
Infrastrutture, Draghi: "Nominati 57 commissari per 57 opere"Nuovo decreto Draghi: le ipotesi sulle misure dopo PasquaCovid, Speranza: "Il tutti contro tutti non sarebbe stata una soluzione"

ETF

  1. avatarEmma Bonino lascia +Europa: le sue sono parole durissimeProfessore per gli Investimenti Istituzionali e Individuali di BlackRock

    Telefonata Draghi-Macron: con ok dell'Ema riparte AstraZenecaCovid, Fontana: “È necessario stabilire procedure per le riaperture”Recovery Plan, via libera da Bruxelles. Confronto prosegue su questioni marginaliConferenza stampa Draghi: "Riconosciuto sostegno a imprese"

    1. Recovery Plan, Consiglio dei Ministri alle 10 per approvare il piano di ripresa

      1. avatarPucciarelli sottosegretaria alla Difesa: apprezza i forni crematoriCapo Analista di BlackRock

        Notizie di Politica italiana - Pag. 363

  2. avatarErdogan replica a Draghi: "Le sue parole una totale maleducazione"MACD

    Covid, Mario Draghi: piano per le riaperture e campagna vaccinaleSfiducia a Speranza, voto in Senato il 28 aprile: via libera dalla maggioranzaEmiliano chiude le scuole in Puglia fino al 14 marzo per covidGoverno, niente riconferma per l'ex sottosegretaria Zampa

  3. avatarVaccino Covid AstraZeneca, Speranza: "Subito circolare su Over 60"VOL

    Sfiducia a Speranza, voto in Senato il 28 aprile: via libera dalla maggioranzaIl Ministro Bianchi ha revocato l'incarico a Pasquale VespaBersani a Letta: "Ricostruiamo il centrosinistra"Segre: "Il Covid è come un guerra, penso agli anziami morti soli"

Sondaggi politici: cala il consenso del Premier Mario Draghi e del Governo

Di Maio: "Nuove misure in arrivo, dobbiamo fermare i contagi"Debora Serracchiani eletta capogruppo del Pd alla Camera*