Công nghệ

NHẬN NH FNG NHÂN SỰ

Thuật toán nhận dạng khuôn mặt truyền thống dựa trên các tính năng địa phương. Các thuật toán đầu tiên phát hiện một loạt các điểm tương đối bất biến trên mặt (điểm fiducial: góc của mắt và miệng, lỗ mũi, vv). Thông thường, số điểm nằm trong khoảng từ 10 đến 300. Sau đó, sau khi sắp xếp khuôn mặt, thuật toán trích xuất thông tin quan tâm từ các vùng địa phương, mỗi điểm một, sử dụng các tính năng trực quan nhất định (ví dụ wavelets, HOG, SIFT, SURF ... hoặc các biến thể của chúng). Các mẩu thông tin khác nhau được nối thành một tính năng duy nhất và tùy chọn kích thước của nó đã được giảm xuống để giúp lưu trữ và so sánh nhanh hơn với các tính năng khác.

Trong loại thuật toán đó, số điểm đã trở thành đồng nghĩa với tính chính xác của dự đoán. Điều này không hoàn toàn đúng: nếu các điểm được căn thẳng, nhiều điểm thường cho độ chính xác cao hơn cho một phương pháp nhất định, nhưng tính chính xác cực kỳ phụ thuộc vào đặc điểm và phân loại.

Deep learning

Các thuật toán học sâu, hiện nay đã có trên thị trường hầu hết các ứng dụng về tầm nhìn máy tính, hoạt động khác nhau. Họ áp dụng các ngân hàng của các bộ lọc phức tạp và phi tuyến tính liên tục trên một hình ảnh ban đầu. Mỗi lớp ứng dụng xử lý hình ảnh và trích xuất thông tin đặt hàng cao. Sau nhiều lớp của các ngân hàng lọc (thường là từ hàng chục đến hàng trăm), khuôn mặt được mã hoá trực tiếp thành các mẫu nhỏ rất nhanh để so sánh và cho kết quả chính xác hơn.

Điều thú vị về học tập sâu sắc là cách để trích xuất các tính năng trực quan không được định nghĩa theo cách thủ công, như trước đây, nhưng nó được học hỏi tối ưu bởi chính mạng trong quá trình đào tạo. Vì vậy, tất cả các quá trình liên kết mặt / frontalization, nội địa hóa các khu vực thú vị, vv được thực hiện nội bộ của mạng. Bạn không cần phải nói cho các thuật toán nơi mà các điểm thú vị, cũng không phải làm thế nào để trích xuất các thông tin, như là nó học tự nó.

Học sâu là một nhánh của học máy. Nó đặc biệt phù hợp với các nhiệm vụ học tập nhất định, vì nó có xu hướng làm chính xác và khái quát hóa dữ liệu đào tạo (do đó thu được lợi từ số lượng lớn) và nó sẽ tự động học các đại diện nội bộ tốt nhất của dữ liệu tối ưu hóa mục tiêu học tập, một số kỹ thuật học tập truyền thống đòi hỏi thủ công thủ công các đại diện như vậy.

SỬ DỤNG GPU NVIDIA

GPU NVIDIA là lý tưởng cho việc đào tạo mạng nơ-ron sâu, đẩy nhanh quá trình mà có thể mất một năm hoặc nhiều hơn chỉ vài tuần hoặc vài ngày. Đó là bởi vì GPU thực hiện nhiều tính toán cùng một lúc - hoặc song song. Và một khi một hệ thống được "đào tạo", với GPU, các nhà khoa học và các nhà nghiên cứu có thể đưa việc học tập đó trở nên hiệu quả. Công việc đó liên quan đến các nhiệm vụ từng nghĩ là không thể.

GPU được sử dụng để đào tạo các mạng nơ ron sâu này sử dụng các bộ đào tạo lớn hơn, theo thứ tự thời gian ít hơn, sử dụng cơ sở hạ tầng trung tâm dữ liệu ít hơn. GPU cũng đang được sử dụng để vận hành các mô hình học máy đã được đào tạo này để phân loại và dự đoán trong đám mây, hỗ trợ lượng dữ liệu và lượng dữ liệu vượt trội hơn với ít điện năng và cơ sở hạ tầng.

Người sử dụng máy gia tốc GPU sớm để học máy bao gồm nhiều công ty truyền thông web và truyền thông xã hội lớn nhất, cùng với các tổ chức nghiên cứu hàng đầu về khoa học dữ liệu và máy học. Với hàng ngàn lõi tính toán và thông lượng ứng dụng 10-100x so với CPU đơn thuần, GPU đã trở thành bộ xử lý được lựa chọn để xử lý dữ liệu lớn cho các nhà khoa học dữ liệu.

 

NVIDIA logo

Giới thiệu về NVIDIA

Năm 1999, NVIDIA đã làm dấy lên sự tăng trưởng của thị trường máy tính cá nhân, tái tạo lại đồ họa máy tính hiện đại và cách mạng hoá máy tính song song. Gần đây, quá trình học tập sâu sắc của GPU bắt đầu làm cho AI hiện đại - kỷ nguyên tiếp theo của máy tính - với GPU hoạt động như bộ não của các máy tính, robot, và những chiếc xe hơi tự lái mà có thể nhận biết và hiểu thế giới.