Tecnologia

Reconhecimiento facial

Os algoritmos tradicionais de reconhecimento de rosto são baseados em recursos locais. O algoritmo detectou pela primeira vez uma série de pontos relativamente invariantes no rosto (pontos fiduciários: cantos dos olhos e da boca, narinas, etc.). Normalmente, o número de pontos era entre 10 e 300. Então, geralmente após o alinhamento do rosto, o algoritmo extraiu informações de interesse dessas regiões locais, um por ponto, usando determinadas características visuais (por exemplo, wavelets, HOG, SIFT, SURF ... ou variações deles). As diferentes peças de informação foram concatenadas em um único recurso, e, opcionalmente, sua dimensão foi reduzida para facilitar a armazenagem e rápida comparação com outras características.

Nesse tipo de algoritmos, o número de pontos tornou-se sinônimo da precisão da previsão. O que não é inteiramente verdadeiro: se os pontos estão bem alinhados, mais pontos geralmente dão mais precisão para um determinado método, mas a precisão é extremamente dependente da característica particular e do classificador.

Deep learning

Os algoritmos de aprendizagem profunda, que são agora o estado da arte na maioria das aplicações de visão por computador, funcionam de forma diferente. Eles aplicam bancos de filtros convolucionais e não-lineares repetidamente sobre uma imagem original. Cada camada de aplicativo processa a imagem e extrai informações de ordem superior. Depois de muitas camadas desses bancos de filtros (normalmente entre dezenas e centenas), as faces são codificadas diretamente em pequenos modelos que são muito rápidos para comparar e produzem resultados muito mais precisos.

A coisa interessante sobre o aprendizado profundo é que a maneira de extrair recursos visuais não é definida manualmente, como antes, mas é aprendida de maneira ideal pela própria rede durante o treino. Portanto, todos os processos de alinhamento / frontalização facial, localização de regiões interessantes, etc., são feitos internamente pela rede. Você não precisa dizer o algoritmo onde são os pontos interessantes, nem como extrair a informação, como ela aprende sozinha.

A aprendizagem profunda é um ramo da aprendizagem de máquinas. É particularmente adequado para certas tarefas de aprendizagem, pois tende a escalar precisão e generalização com os dados de treinamento (beneficiando assim de grandes quantidades), e aprende automaticamente as melhores representações internas de dados que otimizam um objetivo de aprendizagem, em oposição a algumas técnicas de aprendizado tradicionais que exigiam a manipulação manual de tais representações.

Uso de GPUs NVIDIA

As GPUs NVIDIA são ideais para o treinamento de redes neurais profundas, acelerando um processo que, de outra forma, poderia demorar um ano ou mais apenas semanas ou dias. Isso ocorre porque as GPUs realizam muitos cálculos ao mesmo tempo ou em paralelo. E uma vez que um sistema é "treinado", com GPUs, cientistas e pesquisadores podem colocar essa aprendizagem no trabalho. Esse trabalho envolve tarefas que, uma vez consideradas impossíveis.

As GPUs são usadas para treinar essas redes neurais profundas usando conjuntos de treinamento muito maiores, em uma ordem de magnitude menos tempo, usando muito menos infraestrutura de datacenter. As GPUs também estão sendo usadas para executar esses modelos treinados de aprendizagem de máquinas para fazer classificação e previsão na nuvem, suportando muito mais volume de dados e throughput com menos energia e infra-estrutura.

Os adotadores precoce de aceleradores de GPU para aprendizagem de máquinas incluem muitas das maiores empresas de redes e redes sociais, juntamente com instituições de pesquisa de nível superior em ciência dos dados e aprendizado de máquinas. Com milhares de núcleos computacionais e taxa de transferência de aplicativos 10-100x, em comparação com as CPUs, as GPUs tornaram-se o processador escolhido para o processamento de dados importantes para cientistas de dados.

 

NVIDIA logo

Sobre a NVIDIA

Em 1999, a NVIDIA provocou o crescimento do mercado de jogos para PC, redefiniu a computação gráfica moderna e revolucionou a computação paralela. Mais recentemente, o aprendizado profundo da GPU inflamou o AI moderno - a próxima era da computação - com o GPU atuando como o cérebro de computadores, robôs e carros auto-dirigidos que podem perceber e entender o mundo.