File not found
Professore Campanella

Fontana: "La Lombardia si sta avvicinando alla zona rossa"

Botta e risposta tra Boschi e Conte: "La verità fa male"Dpcm illegittimi e incostituzionali: la sentenza del TribunaleNotizie di Politica italiana - Pag. 391

post image

Crisi di Governo, Bellanova: "Il tempo è finito"Sono centinaia i siti web che ogni giorno cercano di bloccare il data scraping dei contenuti - ossia l'estrazione dei dati e metadati attraverso l'uso di software specifici che simulano la navigazione umana - da parte dell'AI,analisi tecnica senza però riuscirci davvero. A rivelarlo è 404Media, che fa un esempio relativo alla compagnia Anthropic: i siti in questione stanno bloccando due bot non più utilizzati dalla compagnia - “ANTHROPIC-AI” e “CLAUDE-WEB” -, lasciando però strada al suo nuovo bot scraper “CLAUDEBOT”, che continua a estrarre dati inesorabilmente. Un problema alquanto comune per i proprietari dei siti web, che si trovano a dover affrontare la continua comparsa di software pensati per estrarre dati da utilizzare per la formazione dei modelli AI.“L'ecosistema sta cambiando rapidamente, quindi è praticamente impossibile per i proprietari di siti web tenere il passo manualmente. Per esempio, Apple (Applebot-Extended) e Meta (Meta-ExternalAgent) hanno aggiunto nuovi agenti rispettivamente il mese scorso e la settimana scorsa”, ha dichiarato a 404Media un utente anonimo di Dark Visitors, un sito web che tiene traccia del panorama in continua evoluzione dei software utilizzati dalle aziende AI per il web scraping. Un'azione di monitoraggio molto apprezzata dai proprietari dei siti web, perché consente loro di aggiornare costantemente il file robots.txt, che raccoglie tutte quelle istruzioni utili a definire se un bot può effettuare il crawling del sito - ossia la sua scansione - o meno.Ma le compagnie di intelligenza artificiale sembrano essere in grado di bypassare il file robots.txt pur di entrare in possesso di dati per l'addestramento dei loro modelli. Motivo per cui i proprietari di molti siti web hanno deciso di bloccare indistintamente tutti i crawler, il che significa limitare la propria visibilità nei motori di ricerca, e non solo. Eppure, tutti coloro che gestiscono siti in rete sembrano disposti a mettere a rischio il traffico web pur di smettere di essere "bombardati" dai crawler delle compagnie AI. La scorsa settimana, per esempio, il sito di guide alle riparazioni iFixit ha dichiarato di essere stato “visitato" dai crawler di Anthropic quasi un milione di volte in un giorno. E questa è solo una delle tante dichiarazioni che danno la misura della confusione che sta affrontando il settore.I bot crawler delle aziende AI sono in costante aumento, e i creator e i proprietari di siti web non sanno più cosa fare per evitare che i loro contenuti vengano dati in pasto ai nuovi modelli linguistici, dato che i crawler non sembrano essere sempre rispettosi delle istruzioni contenute nei file robots.txt. A questo si aggiunge il fatto che spesso i proprietari dei siti si limitano a copiare e incollare quanto scritto nei file robots.txt di altri siti, il che li porta spesso a bloccare crawler del tutto inesistenti. “Se alla fine non esistono, bloccarli non ha alcun impatto”, ha commentato Walter Haydock, ad della società di cybersicurezza StackAware, che ci ha tenuto a precisare che il vero nocciolo della questione qui è un altro, ossia “che c'è molta confusione e incertezza su come funziona (e dovrebbe funzionare) l'addestramento dell'AI”. Spesso, infatti, pensiamo che siano solo i dati di noi utenti a essere utilizzati dalle compagnie per la formazione dei modelli linguistici, ma non è così.

Covid Lamorgese: "Non avrei immaginato potesse succedermi"Covid in Italia, Conte: "Tempesta passere e poi sarà sereno"

Vaccino Covid, Salvini: "Mi metterò in fila come tutti gli altri"

Mes, anche il Senato ha dato il via con 156 favorevoliRecovery Fund, Conte all'incontro col Pd: "Imperdonabile arrivare tardi"

Crisi di Governo, Renzi promette: "Conte andrà a casa"Covid, Fontana: "Non limito libertà ma evitare assembramenti"

Conte sull'auto di scorta usata dalla fidanza: "Attacco personale"

Il governo sul covid mutato: in arrivo nuove restrizioni?Covid, Spadafora: "Spero che da gennaio si riparta con lo sport"

Ryan Reynold
Speranza presenta il piano vaccini in SenatoRenzi rilancia sul Mes e attacca il premier ConteAlessandra Locatelli, quando l'assessora era contro i clochard

Professore del Dipartimento di Gestione del Rischio di BlackRock

  1. avatarCovid, Fontana sui dati della Lombardia: "Sono da zona gialla"BlackRock

    Il verbo "permettiamo" in bocca a un membro del governo è pericolosoCovid, Zampa su ripartenza: "Serve scendere sotto 10mila casi"Renzi: "Se cade governo si cerchi nuova maggioranza"Covid, Boccia e Speranza: "Revocare ordinanza sull'Abruzzo"

    VOL
    1. Sci, il ministro Boccia parla di "ristori certi", priorità per la salute

      ETF
      1. avatarZaia si è detto perplesso su riapertura delle scuole il 7 gennaioBlackRock Italia

        Governo, Bonetti: "Pronta a dimissioni, resto una donna libera"

  2. avatarNuovo dpcm: spostamenti vietati dal 20 dicembre al 6 gennaioBlackRock Italia

    Salvini incontra i vertici di Amazon: "Accetto suggerimenti"Speranza: "Il vaccino ci farà uscire da questi mesi difficili"Per Speranza ci sarà una fase nuova con l'indice Rt sotto l'1La reazione della politica italiana all'assalto al Congresso Usa

  3. avatarSondaggi, il gradimento del centrodestra è in crescitaProfessore Campanella

    "Pescatori di Mazara liberati da Putin", lo dice l'armatoreLa lettera di Matteo Renzi al Premier ConteRomano Pd, minacciato insieme alla figlia dalla no vax Daniela MartaniCommissario Calabria, fumata nera: salta anche Mostarda

Riapertura scuola 7 gennaio, Boccia: "Dipende dai contagi"

Dpcm 3 dicembre: cosa si può fare e cosa è vietatoConte sull'auto di scorta usata dalla fidanza: "Attacco personale"*