Tecnologia

Reconeixement facial

Els algoritmes tradicionals de reconeixement facial es basen en característiques locals. L'algoritme detectava primer una sèrie de punts relativament invariants a la cara (punts fiducials, racons dels ulls i la boca, fosses nasals, etc.). Normalment el nombre de punts estava entre 10 i 300. Llavors, generalment després d'alinear la cara, l'algoritme extreia la informació que li era d'interès d'aquestes regions locals, una per punt, utilitzant certes característiques visuals (per exemple, wavelets, HOG, SIFT, SURF...o variacions d'aquests). Les diferents peces d'informació es van concatenar en una sola característica, i, opcionalment, la seva dimensió es va reduir per fer-ho més fàcil d'emmagatzemar i més ràpid per comparar amb altres característiques.

En aquest tipus d'algoritmes, el nombre de punts es va convertir en un sinònim de l'exactitud de la predicció. Tot i que no és del tot cert: si els punts estan ben alineats, més punts generalment donen una major precisió per una determinada metodologia, però la precisió depèn en gran mesura de la característica particular i el classificador.

Deep learning

Els algoritmes de deep learning, que ara són d'avantguarda en la majoria de les aplicacions de visió per computador, funcionen de forma diferent. Aplicant repetidament bancs de filtres convolucionals i no lineals sobre una imatge original. Cada capa d'aplicació processa la imatge i extreu informació d'ordre superior. Després de moltes capes d'aquests bancs de filtres (típicament entre desenes i centenars), les cares es codifiquen directament en plantilles petites que són molt ràpides de comparar i produeixen resultats molt més precisos.

El que és interessant sobre el deep learning és que la forma d'extreure característiques visuals no es defineix manualment, com abans, però és apresa de forma òptima per la pròpia xarxa durant l'entrenament. Així, tots els processos d'alineació / frontalització de la cara, localització de les regions interessants, etc. són realitzats internament per la xarxa. No és necessari informar a l'algoritme on són els punts interessants, ni com extraure la informació, ja que aprèn per si mateix.

El deep learning és una branca d'aprenentatge automàtic. És particularment adequat per certes tasques d'aprenentatge, ja que tendeix a escalar precisió i generalització amb totes les dades d'entrenament (beneficiant-se així de les grans quantitats d'ell), i automàticament aprendre les millors representacions internes de dades que optimitzen una meta d'aprenentatge, en contraposició a algunes tècniques tradicionals d'aprenentatge que requereixen l'elaboració manual de tals representacions.

Ús de les GPUs NVIDIA

Les GPU d'NVIDIA són ideals per entrenar xarxes neuronals, accelerant un procés que d'una altra manera podria tardar un any o més o en només setmanes o dies. Això es deu al fet que les GPU realitzen molts càlculs a la vegada, o en paral·lel. I una vegada que un sistema és "entrenat", amb les GPU, els científics i els investigadors poden ficar aquest aprenentatge a treballar. Aquest treball implica tasques que abans es consideraven impossibles.

Les GPU s'utilitzen per entrenar aquestes xarxes neuronals utilitzant conjunts d'entrenament molt més grans, en un ordre de magnitud menys temps, utilitzant molta menys infraestructura del centre de dades. Les GPU també s'utilitzen per executar aquests models de machine learning entrenats per fer la classificació i la predicció al núvol, suportant molt més volum de dades i rendiment amb menys energia i infraestructura.

Els primers adaptadors d'acceleradors de GPU per al machine learning inclouen moltes de les companyies de xarxes socials més importants, junt amb institucions d'investigació de primer nivell en ciències de dades i aprenentatge automàtic. Amb milers de nuclis computacionals i un rendiment d'aplicació de 10-100x en comparació amb les CPUs, les GPU són l'elecció per processar aplicacions de grans quantitats de dades en l'àmbit científic.

NVIDIA logo

Sobre NVIDIA

En 1999, NVIDIA va revolucionar el mercat dels jocs per al PC, els gràfics moderns i la computació paral·lela. Més recentment, el Deep learning en la GPU va fer possible la intel·ligència artificial moderna, la nova era de la computació en la qual la GPU actua com cervell dels ordinadors, robots i cotxes autònoms capaços de percebre i comprendre el món que els rodeja.