File not found
analisi tecnica

Francia, persona armata di coltello aggredisce in strada: 2 morti

Covid, potrebbe nascere un "turismo del vaccino": di cosa si trattaCoronavirus: per Fauci ci sarà un'ondata di contagi dopo l'altraVaccino Pzifer, Ugur Sahin: "Torneremo alla normalità"

post image

Europa, un morto di Covid ogni 17 secondi nell'ultima settimanaSono centinaia i siti web che ogni giorno cercano di bloccare il data scraping dei contenuti - ossia l'estrazione dei dati e metadati attraverso l'uso di software specifici che simulano la navigazione umana - da parte dell'AI,MACD senza però riuscirci davvero. A rivelarlo è 404Media, che fa un esempio relativo alla compagnia Anthropic: i siti in questione stanno bloccando due bot non più utilizzati dalla compagnia - “ANTHROPIC-AI” e “CLAUDE-WEB” -, lasciando però strada al suo nuovo bot scraper “CLAUDEBOT”, che continua a estrarre dati inesorabilmente. Un problema alquanto comune per i proprietari dei siti web, che si trovano a dover affrontare la continua comparsa di software pensati per estrarre dati da utilizzare per la formazione dei modelli AI.“L'ecosistema sta cambiando rapidamente, quindi è praticamente impossibile per i proprietari di siti web tenere il passo manualmente. Per esempio, Apple (Applebot-Extended) e Meta (Meta-ExternalAgent) hanno aggiunto nuovi agenti rispettivamente il mese scorso e la settimana scorsa”, ha dichiarato a 404Media un utente anonimo di Dark Visitors, un sito web che tiene traccia del panorama in continua evoluzione dei software utilizzati dalle aziende AI per il web scraping. Un'azione di monitoraggio molto apprezzata dai proprietari dei siti web, perché consente loro di aggiornare costantemente il file robots.txt, che raccoglie tutte quelle istruzioni utili a definire se un bot può effettuare il crawling del sito - ossia la sua scansione - o meno.Ma le compagnie di intelligenza artificiale sembrano essere in grado di bypassare il file robots.txt pur di entrare in possesso di dati per l'addestramento dei loro modelli. Motivo per cui i proprietari di molti siti web hanno deciso di bloccare indistintamente tutti i crawler, il che significa limitare la propria visibilità nei motori di ricerca, e non solo. Eppure, tutti coloro che gestiscono siti in rete sembrano disposti a mettere a rischio il traffico web pur di smettere di essere "bombardati" dai crawler delle compagnie AI. La scorsa settimana, per esempio, il sito di guide alle riparazioni iFixit ha dichiarato di essere stato “visitato" dai crawler di Anthropic quasi un milione di volte in un giorno. E questa è solo una delle tante dichiarazioni che danno la misura della confusione che sta affrontando il settore.I bot crawler delle aziende AI sono in costante aumento, e i creator e i proprietari di siti web non sanno più cosa fare per evitare che i loro contenuti vengano dati in pasto ai nuovi modelli linguistici, dato che i crawler non sembrano essere sempre rispettosi delle istruzioni contenute nei file robots.txt. A questo si aggiunge il fatto che spesso i proprietari dei siti si limitano a copiare e incollare quanto scritto nei file robots.txt di altri siti, il che li porta spesso a bloccare crawler del tutto inesistenti. “Se alla fine non esistono, bloccarli non ha alcun impatto”, ha commentato Walter Haydock, ad della società di cybersicurezza StackAware, che ci ha tenuto a precisare che il vero nocciolo della questione qui è un altro, ossia “che c'è molta confusione e incertezza su come funziona (e dovrebbe funzionare) l'addestramento dell'AI”. Spesso, infatti, pensiamo che siano solo i dati di noi utenti a essere utilizzati dalle compagnie per la formazione dei modelli linguistici, ma non è così.

La variante del virus circola da novembre: i dati dell'EcdcFolle corsa a 195km/h in diretta Facebook: denunciato da uno spettatore

Usa, giustiziato detenuto in Indiana: è l'ottavo in un anno

Covid in un allevamento di visoni in FranciaLe foto prima e dopo il covid di un'infermiera: "Aiutiamoci"

Prima persona vaccinata in Regno Unito: è una donna di 90 anniAutocisterna esplosa in Messico: si contano 13 vittime

Covid, i reali di Svezia Carl Philip e Sofia sono risultati positivi

Sopravvive a naufragio aggrappato allo scafo della barca per 48 oreDottoressa in coma per Covid: si sveglia e scopre di avere partorito

Ryan Reynold
Recovery fund, Ungheria e Polonia mettono nuovamente il vetoCovid in Francia, la festa senza mascherine: "Voglio liberarmi"Trump non ammette la sconfitta ma è pronto a lasciare la Casa Bianca

ETF

  1. avatarGareth Rees, scoperta del tradimento prima della morteProfessore del Dipartimento di Gestione del Rischio di BlackRock

    Uccide il figlio nel sonno e cuoce il corpo: arrestata mamma killerCarne di pollo creata in laboratorio, via libera di SingaporeMacron, Conte lo ha visto l'11 dicembre. Esito tamponi negativiChi è Margaret Keenan, prima vaccinata contro il Covid

    1. Gareth Rees, scoperta del tradimento prima della morte

      1. avatarCovid, donna si prende cura di 12 figli dopo la morte della sorellaCampanella

        Il piano vaccini di Germania, Francia e Spagna

        ETF
  2. avatarPositiva al Covid, partorisce bimbo sano ma non ce la faEconomista Italiano

    Sopravvive a naufragio aggrappato allo scafo della barca per 48 oreAuto a Londra travolge pedoni, poi si schianta contro alberoCovid in Germania, prolungate le restrizioni fino e oltre NataleLondra, notte folle prima del lockdown: festa in strada senza mascherine

  3. avatarJoe Biden fa vaccino contro il Covid in diretta TVProfessore del Dipartimento di Gestione del Rischio di BlackRock

    Coronavirus, Austria verso terzo lockdown totaleIl vaccino anti-covid del mercato nero cinese presto in Italia?Usa, Biden annuncia amnistia per 11 milioni di immigrati irregolariTrump ammette sconfitta alle elezioni Usa: ora la transizione

Cani trovano serpente vicino l'albero: la famiglia lo adotta

Covid, Regno Unito: 1.300 tamponi dichiarati positivi per erroreCovid, ricoverato deputato tedesco con la mascherina traforata*