Teknoloji

Reconocimiento facial

Los algoritmos tradicionales de reconocimiento facial se basan en características locales. El algoritmo detectaba primero una serie de puntos relativamente invariantes en la cara (puntos fiduciales: rincones de los ojos y boca, fosas nasales, etc.). Normalmente el número de puntos estaba entre 10 y 300. Entonces, generalmente después de alinear la cara, el algoritmo extraía la información de interés de estas regiones locales, una por punto, usando ciertas características visuales (por ejemplo, wavelets, HOG, SIFT, SURF ... o variaciones de ellos). Las diferentes piezas de información se concatenaron en una sola característica, y, opcionalmente, su dimensión se redujo para hacerlo más fácil de almacenar y más rápido para comparar con otras características.

En ese tipo de algoritmos, el número de puntos se convirtió en sinónimo de la exactitud de la predicción. Lo cual no es del todo cierto: si los puntos están bien alineados, más puntos generalmente dan mayor precisión para un método dado, pero la precisión depende en gran medida de la característica particular y el clasificador.

Deep learning

Los algoritmos de deep learning, que ahora son de vanguardia en la mayoría de las aplicaciones de visión por computador, funcionan de forma diferente. Aplican repetidamente bancos de filtros convolucionales y no lineales sobre una imagen original. Cada capa de aplicación procesa la imagen y extrae información de orden superior. Después de muchas capas de estos bancos de filtros (típicamente entre decenas y cientos), las caras se codifican directamente en plantillas pequeñas que son muy rápidas de comparar y producen resultados mucho más precisos.

Lo interesante del deep learning es que la forma de extraer características visuales no se define manualmente, como antes, pero es aprendida de forma óptima por la propia red durante el entrenamiento. Así, todos los procesos de alineación / frontalización de la cara, localización de regiones interesantes, etc. son realizados internamente por la red. No es necesario decirle al algoritmo dónde están los puntos interesantes, ni cómo extraer la información, ya que aprende por sí mismo.

El deep learning es una rama del aprendizaje automático. Es particularmente adecuado para ciertas tareas de aprendizaje, ya que tiende a escalar precisión y generalización con los datos de entrenamiento (beneficiándose así de grandes cantidades de él), y automáticamente aprende las mejores representaciones internas de datos que optimizan una meta de aprendizaje, en contraposición a algunas técnicas tradicionales de aprendizaje que requirieron la elaboración manual de tales representaciones.

Uso de GPUs NVIDIA

Las GPU de NVIDIA son ideales para entrenar redes neuronales, acelerando un proceso que de otro modo podría tardar un año o más en sólo semanas o días. Esto se debe a que las GPU realizan muchos cálculos a la vez, o en paralelo. Y una vez que un sistema es "entrenado", con las GPU, los científicos y los investigadores pueden poner ese aprendizaje a trabajar. Ese trabajo implica tareas que antes se consideraban imposibles.

Las GPU se usan para entrenar estas redes neuronales usando conjuntos de entrenamiento mucho más grandes, en un orden de magnitud menos tiempo, usando mucha menos infraestructura de centro de datos. Las GPUs también se utilizan para ejecutar estos modelos de machine learning entrenados para hacer la clasificación y la predicción en la nube, soportando mucho más volumen de datos y rendimiento con menos energía e infraestructura.

Los primeros adoptadores de aceleradores de GPU para el machine learning incluyen muchas de las compañías de redes sociales más importantes, junto con instituciones de investigación de primer nivel en ciencias de datos y aprendizaje automático. Con miles de núcleos computacionales y un rendimiento de aplicación de 10-100x en comparación con las CPUs, las GPU son la elección para procesar aplicaciones de grandes cantidades datos en el ámbito científico.

 

NVIDIA logo

Acerca de NVIDIA

En 1999, NVIDIA revolucionó el mercado de los juegos para PC, los gráficos modernos y la computación paralela. Más recientemente, el deep learning en la GPU hizo posible la inteligencia artificial moderna, la nueva era de la computación en la que la GPU actúa como cerebro de los ordenadores, robots y coches autónomos capaces de percibir y comprender el mundo que les rodea.