Tecnologia

Riconoscimento facciale

Gli algoritmi tradizionali di riconoscimento del volto sono basati sulle caratteristiche locali. L'algoritmo ha rilevato innanzitutto una serie di punti relativamente invariati in faccia (punti fiduciali: angoli degli occhi e della bocca, narici, ecc.). (Ad esempio, wavelet, HOG, SIFT, SURF, ecc.) Questo è un esempio di un algoritmo basato sui seguenti algoritmi: o variazioni di essi). I diversi pezzi di informazioni sono stati concatenati in una singola funzionalità e sono stati ridotti in dimensioni per rendere più facile memorizzare e confrontare le altre funzionalità.

In questo tipo di algoritmi, il numero di punti è diventato sinonimo della precisione della predizione. Quello che non è del tutto vero: se i punti sono ben allineati, più punti generalmente forniscono maggiore precisione per un determinato metodo, ma la precisione è estremamente dipendente dalla particolare funzione e dal classificatore.

Deep learning

Gli algoritmi di apprendimento profondo, che sono ormai all'avanguardia nella maggior parte delle applicazioni per la visione di computer, funzionano in modo diverso. Essi applicano banche di filtri convoluzionali e non lineari su un'immagine originale. Ogni strato di applicazione elabora l'immagine e estrae informazioni di ordine superiore. Dopo molti strati di queste banche di filtro (tipicamente tra decine e centinaia), i volti vengono codificati direttamente in piccoli modelli molto veloci da confrontare e forniscono risultati molto più accurati.

La cosa interessante per l'apprendimento profondo è che il modo per estrarre le funzioni visive non è definito manualmente, come prima, ma è ottimamente appreso dalla rete stessa durante l'allenamento. Quindi tutti i processi di allineamento / frontalizzazione dei volti, localizzazione di regioni interessanti, ecc. sono fatti internamente dalla rete. Non è necessario indicare l'algoritmo dove sono i punti interessanti, né come estrarre le informazioni, in quanto apprende da solo.

L'apprendimento profondo è un ramo di apprendimento in macchina. E 'particolarmente adatto per taluni compiti di apprendimento, in quanto tende a scalare la precisione e la generalizzazione Con i dati di allenamento (e quindi che beneficiano di grandi quantità di esso), e impara automaticamente le rappresentazioni interne di dati che ottimizzano un obiettivo di apprendimento, al contrario di alcune tecniche di apprendimento tradizionali che richiedevano la manualizzazione manuale di tali rappresentazioni.

Uso di GPUs NVIDIA

Le GPU NVIDIA sono ideali per la formazione di reti neurali profonde, accelerando un processo che potrebbe richiedere un anno o più a poche settimane o giorni. Questo perché le GPU eseguono molti calcoli contemporaneamente o in parallelo. E una volta che un sistema è "addestrato", con GPU, scienziati e ricercatori possono mettere questo apprendimento al lavoro. Quel lavoro comporta compiti che una volta si pensava impossibile.

Le GPU sono utilizzate per addestrare queste reti neurali profonde utilizzando set di formazione molto più grandi, in un ordine di grandezza meno tempo, utilizzando infrastrutture molto meno infrastrutture. Le GPU vengono inoltre utilizzate per eseguire questi modelli di apprendimento automatizzato della macchina per la classificazione e la predizione nella cloud, supportando molto più volume e velocità di trasmissione con meno potenza e infrastrutture.

Gli utilizzatori precoci di acceleratori GPU per l'apprendimento automatico comprendono molte delle più grandi aziende web e social media, insieme ad istituzioni di ricerca di alto livello nella scienza dei dati e nell'apprendimento macchina. Con migliaia di colori computazionali e 10-100x di applicazioni superiori alle CPU, le GPU sono diventate il processore di scelta per la elaborazione di grandi dati per gli scienziati dei dati.

NVIDIA logo

Informazioni su NVIDIA

Nel 1999 NVIDIA ha scatenato la crescita del mercato dei giochi per PC, ha ridefinito le moderne grafiche informatiche e ha rivoluzionato il computing parallelo. Più di recente, profonda GPU apprendimento acceso moderna AI - la nuova era del computing - con la GPU che agisce come il cervello del computer, robot e macchine auto-guida può percepire e capire che il mondo.