Technologie

Reconnaissance faciale

Les algorithmes de reconnaissance de visage traditionnels sont basés sur les caractéristiques locales. L'algorithme a d'abord détecté une série de points relativement invariables dans le visage (points fiduciaires: coins des yeux et de la bouche, narines, etc.). (Par exemple, les ondelettes, HOG, SIFT, SURF, etc.). Il s'agit d'un exemple d'algorithme basé sur les algorithmes suivants: ou des variantes d'entre eux). Les différents éléments d'information ont été concaténés en une seule caractéristique et ont été réduits en taille pour faciliter la mémorisation et la comparaison avec d'autres fonctionnalités.

Dans ce genre d'algorithmes, le nombre de points est devenu synonyme de la précision de la prédiction. Ce qui n'est pas entièrement vrai: si les points sont bien alignés, plus de points donnent généralement plus de précision à une méthode donnée, mais la précision est extrêmement dépendante de la particularité et du classificateur.

Deep learning

Les algorithmes d'apprentissage approfondi, qui sont à l'état de l'art sur la plupart des applications de vision par ordinateur, fonctionnent différemment. Ils appliquent des banques de filtres convolutionnels et non linéaires sur une image originale. Chaque couche d'application traite l'image et extrait des informations d'ordre supérieur. Après plusieurs couches de ces banques de filtres (généralement entre dizaines et centaines), les faces sont encodées directement dans de petits modèles qui sont très rapides à comparer et donnent des résultats beaucoup plus précis.

L'aspect intéressant de l'apprentissage en profondeur est que la façon d'extraire les fonctions visuelles n'est pas définie manuellement, comme auparavant, mais elle est optimisée par le réseau lui-même pendant la formation. Ainsi, tous les processus d'alignement / frontalisation face, localisation de régions intéressantes, etc. sont effectués en interne par le réseau. Vous n'avez pas besoin de dire l'algorithme où sont les points intéressants, ni comment extraire l'information, car elle apprend elle-même.

L'apprentissage en profondeur est une branche de l'apprentissage par machine. Il est particulièrement adapté à certaines tâches d'apprentissage, car il tend à réduire la précision et la généralisation avec les données de formation (bénéficiant ainsi de nombreuses quantités), et il apprend automatiquement les meilleures représentations internes des données qui optimisent les objectifs d'apprentissage, par opposition à certaines techniques d'apprentissage traditionnelles qui nécessitaient une fabrication artisanale manuelle de telles représentations.

Utilisation de GPUs NVIDIA

Les GPU NVIDIA sont idéaux pour la formation de réseaux neuronaux profonds, ce qui accélère un processus qui pourrait prendre un an ou plus seulement quelques semaines ou quelques jours. C'est parce que les GPU effectuent de nombreux calculs à la fois ou en parallèle. Et une fois qu'un système est «formé», les GPU, les scientifiques et les chercheurs peuvent mettre l'apprentissage au travail. Ce travail implique des tâches qui ont été jugées impossibles.

Les GPU sont utilisés pour former ces réseaux de neurones profonds en utilisant des ensembles de formation beaucoup plus importants, dans un ordre de grandeur moins de temps, en utilisant beaucoup moins d'infrastructures de centres de données. Les GPU sont également utilisés pour exécuter ces modèles d'apprentissage mécanique formés de la classification et de la prédiction sur le cloud, en soutenant beaucoup plus de volume de données et de débit avec moins d'énergie et d'infrastructure.

Les premiers utilisateurs des accélérateurs de GPU pour l'apprentissage des machines incluent plusieurs des plus grandes entreprises de réseaux sociaux et de réseaux sociaux, ainsi que des institutions de recherche de premier ordre dans les sciences de la donnée et l'apprentissage par machine. Avec des milliers de couleurs de calcul et le débit d'application 10-100x par rapport aux CPU seulement, les GPU sont devenus le processeur de choix pour le traitement de données importantes pour les scientifiques de données.

 

NVIDIA logo

À propos de NVIDIA

En 1999, NVIDIA a déclenché la croissance du marché des jeux PC, a redéfini les graphiques informatiques modernes et révolutionné l'informatique parallèle. Plus récemment, l'apprentissage en profondeur du GPU a enflammé l'IA moderne - la prochaine ère de l'informatique - avec le GPU agissant comme le cerveau des ordinateurs, des robots et des voitures autonomes qui peuvent percevoir et comprendre le monde.