Pasqua, gli auguri di Giuseppe Conte: "Difficoltà stimolo per nuove energie"25 aprile, Mattarella: "Contro la pandemia rinascita e coesione nazionale"Governo Draghi, via libera del cdm a lista sottosegretari
Consigliere M5s pubblica tombino photoshoppato: polemicheDiversi algoritmi donano la “vista” ai computer rendendoli ancora più utili in numerosi ambiti. Ma quanto è simile realmente la computer vision a quella umana?Economista ItalianoL’intelligenza artificiale opera su diversi livelli. Gli algoritmi di AI possono infatti aiutare nell’analisi dei dati più vari e nello svolgimento di compiti più o meno complessi.Attraverso alcuni algoritmi, un computer può comprendere in modo più o meno approfondito anche i contenuti visivi, come immagini e video, potendosi sostituire in parte o completamente agli esseri umani. Si parla, in questo caso, di computer vision. Indice dei contenuti Definizione di computer visionIl training dell’AI e il funzionamento dei sistemi di visione artificialeLe applicazioni della visione artificialeL’importanza dei training datasetDefinizione di computer visionLa computer vision è un’area dell’AI che descrive la capacità dei sistemi di “vedere”, cioè di ottenere informazioni da immagini digitali e altri input visivi a loro sottoposti e di agire sulla base di queste. I computer, infatti, così come possono “comprendere” il linguaggio naturale attraverso l’utilizzo di microfoni, sono anche in grado di “leggere” e “guardare” le immagini, analizzandole con le loro estensioni hardware o osservando direttamente la realtà attraverso telecamere e obiettivi di varia natura.Si tratta dunque di un campo di studi che collega diverse discipline e che lavora sulla creazione e sullo sviluppo di algoritmi diretti a fornire ai computer la capacità di riconoscere visivamente gli oggetti e di estrarre informazioni su questi. Informazioni che verranno rielaborare e utilizzate per definire un contesto intorno all’immagine.Il training dell’AI e il funzionamento dei sistemi di visione artificialeI sistemi di computer vision, per poter funzionare, devono essere addestrati. Perché questo avvenga, ai sistemi devono essere sottoposte numerose immagini etichettate, un training dataset molto esteso che possa rendere i software effettivamente intelligenti e in grado di riconoscere i più svariati oggetti.Per l’addestramento, vengono utilizzati due tipi di tecnologia.Il deep learning (apprendimento profondo) è un tipo di apprendimento automatico molto avanzato che usa algoritmi che consentono al computer di apprendere in autonomia il contesto delle immagini che gli vengono fornite. Il computer, analizzando tutti i dati visivi che ha a disposizione, imparerà a distinguerli tra loro, senza che un essere umano lo programmi per farlo.Una rete neurale convoluzionale (CNN – convolutional neural network, esempio di deep neural network) aiuta invece i modelli di apprendimento automatico o profondo a “vedere”, analizzando le immagini nelle loro componenti elementari, i pixel, a cui vengono associate delle etichette. Attraverso le etichette, una CNN esegue delle convoluzioni – specifiche operazioni matematiche – ed effettua previsioni. La stessa rete, poi, verifica la correttezza delle proprie previsioni e impara a farne di più precise. Una rete neurale di questo genere, utilizzata per analizzare immagini singole, distingue prima i tratti generali delle immagini per poi focalizzarsi sui dettagli. Una rete neurale ricorrente (RNN – recurrent neural network) è invece utilizzata per l’analisi di video.Le applicazioni della visione artificialeTra i compiti che gli algoritmi di visione artificiale possono svolgere ci sono: la classificazione o la segmentazione di un’immagine, l’identificazione di un oggetto (molto utile per i veicoli a guida autonoma), la face o action recognition (associata anche all’emotion recognition), l’identificazione delle relazioni tra i diversi soggetti di un’immagine, l’editing, il tracciamento di un oggetto o l’image retrieval, ovvero la capacità di recuperare un’immagine da un archivio molto vasto ricercando l’oggetto in essa contenuto, anche in mancanza di tag associati. Un esempio di computer vision applicata a un contesto urbano (foto: 22 tecnologies)Le reti neurali sono in grado di aiutare in diverse aree: nella prevenzione dei reati (attraverso la smart surveillance, ovvero l’analisi automatica delle immagini ottenute dalle videocamere di sorveglianza), nel sostegno alle disabilità (si vedano le applicazioni dedicate alle persone cieche), in ambito scolastico, nella protezione delle specie animali in via d’estinzione e non solo.Un’applicazione molto utilizzata di computer vision è, per esempio, quella adottata da Google Translate, che permette agli utenti di inquadrare una scritta con il proprio smartphone e di tradurla immediatamente in qualsiasi lingua. Il software “legge” i pixel dell’immagine traducendoli in un testo che viene istantaneamente tradotto. La visione artificiale viene usata anche in settori come quello dei servizi, nell’ambito manifatturiero e in quello dell’energia. All’interno delle fabbriche, l’AI può essere utilizzata, infatti, per monitorare i prodotti al fine di rilevare eventuali difetti, oppure per osservare il luogo di lavoro e garantirne la sicurezza.L’importanza dei training datasetPerché la computer vision funzioni correttamente e in modo efficace, è necessario che questa sia bene addestrata. È dunque fondamentale creare un dataset abbastanza ricco per assicurarsi che il software acquisisca il maggior numero di dettagli possibile. Ciò lo renderà più preciso nell’analisi dei contenuti visivi e lo aiuterà a riconoscere molte più immagini, anche qualora queste deviassero dallo standard (oggetto parzialmente non visibile, luminosità scarsa, colori diversi, etc.). Per arrivare a questo risultato sono necessari dataset con migliaia, se non milioni di dati.La tecnologia, da questo punto di vista, ha fatto passi da gigante. Si pensi ai veicoli a guida autonoma, il cui obiettivo è quello di assistere completamente – fino al punto di sostituire – il conducente. Questi sistemi devono identificare, classificare e tracciare gli oggetti e le persone sul loro percorso in tempo reale e agire di conseguenza. Nonostante questi sistemi non siano ancora stati resi disponibili a tutti sul mercato, ci sono esempi che dimostrano come siano quasi del tutto affidabili.La strada è lunga. L’innovazione, però, si muove a un passo spedito e gli ultimi sviluppi lasciano ben sperare.
Meloni attacca Mario Draghi: “Facevamo prima a tenerci Giuseppe Conte”Sondaggio Swg, 5 Stelle al 22% con Conte leader
Notizie di Politica italiana - Pag. 362
Lockdown nel weekend e coprifuoco anticipato: le ipotesiInfrastrutture, Draghi: "Nominati 57 commissari per 57 opere"
Draghi: "Immunità di gregge entro luglio in tutta Europa"Sondaggi, cresce ancora la Meloni che vola al 17,2%
Nuovo decreto Covid, Letta: "Salvini poco serio, decida da che parte stare"Camania, no alle seconde case: nuova ordinanza di De Luca
Rientro a scuola in Lombardia, Fontana: "Impossibile al 100% con trasporti dimezzati"Le elezioni amministrative verso il rinvio ad ottobreSalvini incontra Orban in Ungheria: "Qui per creare qualcosa di longevoNotizie di Politica italiana - Pag. 346
Mario Draghi in video messaggio: "Non sappiamo quando finirà la pandemia"
Roberto Speranza costretto alle dimissioni solo se indagato? L'indiscrezione
Dpcm, quando entreranno in vigore le nuove chiusure?Via libera Cdm del Dl: Italia rossa o arancione fino a fine aprileCovid, ministro Speranza: “Siamo entrati in una fase diversa grazie alla campagna vaccinale”Pasqua, zona rossa in tutta Italia: Consiglio Ministri approva decreto
Coprifuoco, Toti: "A casa dopo le 22 con la ricevuta del ristorante"Con Conte il M5s sfiora Lega, calo drastico del Pd: i sondaggi Covid, Speranza: "Primo miglioramento ma situazione resta seria"Covid, fonti di Palazzo Chigi: "Dal 1° giugno ristoranti al chiuso solo a pranzo"