Trí tuệ nhân tạo đọc cảm xúc trên mặt người

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Theo Techxplore, các nhà nghiên cứu ở Samsung AI và Đại học Hoàng gia London (Anh) đã tìm ra cách giúp trí tuệ nhân tạo (AI) có thể đọc hiểu biểu cảm trên gương mặt con người.

thumb_xuwf.png


Đọc cảm xúc của con người không phải là việc dễ dàng đối với trí tuệ nhân tạo. Trong những năm gần đây, các nhà khoa học máy tính trên toàn cầu đã cố gắng phát triển mô hình máy tính có thể đoán được cảm xúc của con người dựa trên nét mặt. Tuy nhiên, hầu hết mô hình hiện nay chỉ nhận ra các cảm xúc cơ bản như tức giận, hạnh phúc, buồn bã chứ chưa thể đọc được những biểu hiện tinh tế hơn của con người.

Các nhà nghiên cứu tại Samsung AI và Đại học Hoàng gia London (Anh) đang phát triển một hệ thống dựa trên mạng neuron sâu có thể đoán cảm xúc với độ chính xác cao bằng cách phân tích hình ảnh khuôn mặt người. Trong bài báo xuất bản trên Nature Machine Intelligence, nhóm nghiên cứu cho biết mô hình này đưa ra kết quả khá nhanh và biết nhận diện những biểu hiện cảm xúc của con người theo thời gian thực (chẳng hạn ảnh chụp trích xuất từ camera an ninh).

Ngoài phần cứng có hiệu suất cao, mô hình này cần đòi hỏi phải có bộ dữ liệu và thuật toán phù hợp. Nhóm nghiên cứu đã biên soạn nhiều bộ dữ liệu dùng để đào tạo mạng neuron sâu cách phân tích cảm xúc, trong đó có bộ dữ liệu AFEW-VA và SEWA chứa hình ảnh mặt người được chụp ngoài đời thực lẫn trong phòng thí nghiệm nhằm phục vụ cho mục đích nghiên cứu.

untitledff_cree.png

Minh họa cách AI đọc cảm xúc của nhân vật trong một cảnh phim

Sau đó, nhóm nhà khoa học tiếp tục phát triển mô hình dựa trên phương pháp nhận diện cảm xúc truyền thống bên cạnh những lý thuyết tâm lý học. Họ phân loại 8 cảm xúc chính gồm hạnh phúc, ngạc nhiên, buồn bã, giận dữ, chán ghét, sợ hãi, khinh thường, trung tính, kết hợp với hai thang đo mức độ tích cực/tiêu cực và mức độ kích động của cảm xúc. Họ viết trong bài báo: "Mục tiêu chính của phương pháp này là dựa trên hình ảnh khuôn mặt của một người để ước tính mức độ tích cực/tiêu cực và mức độ kích động của người đó theo thời gian thực".

Bên cạnh đó, hệ thống cũng phân tích biểu cảm bằng cách sử dụng các "điểm mốc" cụ thể, chẳng hạn như vị trí của môi, mũi và mắt của đối tượng.

Hệ thống này có thể được dùng để tạo ra các robot dịch vụ biết cách nắm bắt cảm xúc của khách hàng và đưa ra phản ứng phù hợp. Cho đến thời điểm hiện tại, hệ thống dựa trên mạng neuron sâu hoạt động tốt nhất với hình ảnh tĩnh, nhưng trong tương lai các nhà khoa học muốn hoàn thiện hệ thống hơn nữa để áp dụng vào việc phân tích video.

Theo Thanh Niên​
 
Bên trên