Nếu hỏi công nghệ nào gây sốt nhất cuối năm 2022 vừa qua, đó chắc chắn là ChatGPT. Ngay sau khi ra mắt, nó đã gây sốt toàn cầu và thu hút được sự chú ý đông đảo của người dùng cũng như giới công nghệ. Song, ít ai biết được rằng, đằng sau sự thành công nổi tiếng đến mức được coi là kẻ sẽ “lật đổ” Google Search hay được Microsoft rót gấp 10 tỷ USD, lại là 1 góc khuất về lực lượng lao động giúp AI xử lý nguồn dữ liệu khồng lồ.
Theo OpenAI, kho dữ liệu văn bản đứng sau sự thông minh của ChatGPT lên tới hàng trăm GB. Dữ liệu đào tạo AI được lấy từ rất nhiều nguồn đa dạng, bao gồm sách báo, trang web tin tức, dữ liệu văn bản có sẵn. Chúng đều được kiểm duyệt và phân loại trước khi đưa vào mô hình xử lý của AI. Từ đó, xây dựng bộ kiến thức đồ sộ và phong phú nhằm phản hồi trước các truy vấn.
Thông thường, nếu không làm sạch nguồn cấp dữ liệu, các mô hình AI có thể vô tình bị “đầu độc” bởi lượng dữ liệu thập cẩm “trên trời dưới biển” lấy từ Internet. Có rất nhiều thông tin sai lệch, khuynh hướng độc hại, cổ súy bạo lực hay phân biệt giới tính, sắc tộc, tôn giáo,... Do vậy, cách đơn giản phổ biến hiện nay là huy động nhân sự để gắn nhãn và rà soát, trước khi nạp mô hình AI.
Sau đó, OpenAI mới đưa vào ChatGPT để chatbot này dựa vào đó mà tự phân loại dữ liệu, chỉ đưa ra các nội dung đã được kiểm duyệt đảm bảo sạch sẽ, lành mạnh. Ngay cả bộ dữ liệu sẵn có của OpenAI cũng có thể lẩn quất những thông tin độc hại, vậy nên loại trừ luôn cũng là 1 cách cho việc đào tạo các mô hình AI tương lai. Song, vấn đề ở đây là ai sẽ dạy cho AI biết cái này là tốt, cái kia là xấu, cái gì cần loại bỏ?
Sama, 1 công ty gia công phần mềm ở Kenya, châu Phi, nắm giữ bí mật đằng sau những câu trả lời đã hạn chế từ ngữ và tư tưởng độc hại của ChatGPT. Sama vốn có thâm niên làm việc với nhiều hãng công nghệ Mỹ, như Google, Meta, Microsoft,... Nhiệm vụ chính của những công ty như Sama là săn lùng nhiều thật nhiều nội dung độc hại trên Internet, ngay cả những thứ đáng sợ và ghê tởm nhất mà bạn có thể chưa bao giờ phải đối mặt. Đó có là lạm dụng tình dục (ngay cả với trẻ em hay người khuyết tật), tự tử, tra tấn, hành xác, cổ động bạo lực, truyền bá tư tưởng cực đoan,...
Công việc phân loại và gắn nhãn cho nội dung đó có mức lương rất rẻ mạt. Sama trả cho những lao động kiểm duyệt này chỉ khoảng 2 USD/giờ, tức chưa tới 50.000 VND/giờ, bên cạnh hiệu suất và thâm niên.
Một nhân viên Sama từng nói thường xuyên gặp ảo giác, sau khi xử lý hình ảnh 1 người đàn ông có hành vi quan hệ tình dục với động vật, ngay trước 1 đứa trẻ. Anh nói nó không khác gì “tra tấn” và kiểu nội dung gớm ghiếc đó sẽ còn xuất hiện nhiều trong cả tuần làm việc, khiến tâm trí như đảo lộn và bị ám ảnh.
Quá trình đào tạo và huấn luyện AI đôi khi phải chứng kiến những nội dung rất nặng nề, chả hạn như 1 vụ hiếp dâm. Không ít nhân viên cho biết đã bị tổn thương tinh thần nghiêm trọng do quá ám ảnh. Phía Sama cho biết đã mời những chuyên gia trị liệu tâm lý để giải tỏa bức bối cho người lao động, song, biện pháp đó không thể hiệu quả như kì vọng. Dù vậy, chi trả cho nhân viên rất bèo bọt so với những gì họ phải chịu.
Theo điều khoản hợp đồng, OpenAI trả 12,5 USD/giờ cho đối tác. Song người lao động chỉ kiếm được 170 USD mỗi tháng, 70 USD thưởng hỗ trợ nếu đạt hiệu suất. Nếu chấp nhận tăng ca, họ có thể nhận thêm khoảng 1,4 USD.
Về cơ bản, công việc sàng lọc và gắn nhãn dữ liệu là 1 phần của các mô hình AI tiên tiến. Cần phải có 1 chuỗi cung ứng lao động rất nhiều người, thực hiện “nuôi dạy AI” để nó đủ thông minh xử lý truy vấn người dùng. Do vậy, tình trạng bóc lột lao động này vẫn sẽ còn nhức nhối như 1 góc khuất của ngành công nghệ AI. Từ việc thu thập dữ liệu bị cho là xâm phạm sở hữu trí tuệ cho tới hoạt động gắn nhãn độc hại.
Theo OpenAI, kho dữ liệu văn bản đứng sau sự thông minh của ChatGPT lên tới hàng trăm GB. Dữ liệu đào tạo AI được lấy từ rất nhiều nguồn đa dạng, bao gồm sách báo, trang web tin tức, dữ liệu văn bản có sẵn. Chúng đều được kiểm duyệt và phân loại trước khi đưa vào mô hình xử lý của AI. Từ đó, xây dựng bộ kiến thức đồ sộ và phong phú nhằm phản hồi trước các truy vấn.
Thông thường, nếu không làm sạch nguồn cấp dữ liệu, các mô hình AI có thể vô tình bị “đầu độc” bởi lượng dữ liệu thập cẩm “trên trời dưới biển” lấy từ Internet. Có rất nhiều thông tin sai lệch, khuynh hướng độc hại, cổ súy bạo lực hay phân biệt giới tính, sắc tộc, tôn giáo,... Do vậy, cách đơn giản phổ biến hiện nay là huy động nhân sự để gắn nhãn và rà soát, trước khi nạp mô hình AI.
AI lọc dữ liệu cho AI
OpenAI đã hạn chế tình trạng đó bằng 1 cơ chế đào tạo AI khác. Họ sẽ huấn luyện 1 hệ thống sàng lọc dữ liệu tự động từ những mẫu sai lệch có sẵn. Nói 1 cách đơn giản, bạn sẽ dạy cho AI biết thế nào là ngôn ngữ xấu độc, từ ngữ có khuynh hướng độc hại, kích động, lạm dụng,... Để nó “tiêu hóa” và nhận thức được đó là loại nội dung cần loại bỏ. Sau này khi gặp dữ liệu tương tự có thể tự loại bỏ trước.Sau đó, OpenAI mới đưa vào ChatGPT để chatbot này dựa vào đó mà tự phân loại dữ liệu, chỉ đưa ra các nội dung đã được kiểm duyệt đảm bảo sạch sẽ, lành mạnh. Ngay cả bộ dữ liệu sẵn có của OpenAI cũng có thể lẩn quất những thông tin độc hại, vậy nên loại trừ luôn cũng là 1 cách cho việc đào tạo các mô hình AI tương lai. Song, vấn đề ở đây là ai sẽ dạy cho AI biết cái này là tốt, cái kia là xấu, cái gì cần loại bỏ?
Sama, 1 công ty gia công phần mềm ở Kenya, châu Phi, nắm giữ bí mật đằng sau những câu trả lời đã hạn chế từ ngữ và tư tưởng độc hại của ChatGPT. Sama vốn có thâm niên làm việc với nhiều hãng công nghệ Mỹ, như Google, Meta, Microsoft,... Nhiệm vụ chính của những công ty như Sama là săn lùng nhiều thật nhiều nội dung độc hại trên Internet, ngay cả những thứ đáng sợ và ghê tởm nhất mà bạn có thể chưa bao giờ phải đối mặt. Đó có là lạm dụng tình dục (ngay cả với trẻ em hay người khuyết tật), tự tử, tra tấn, hành xác, cổ động bạo lực, truyền bá tư tưởng cực đoan,...
Công việc phân loại và gắn nhãn cho nội dung đó có mức lương rất rẻ mạt. Sama trả cho những lao động kiểm duyệt này chỉ khoảng 2 USD/giờ, tức chưa tới 50.000 VND/giờ, bên cạnh hiệu suất và thâm niên.
Cuộc sống bấp bênh
Theo 1 tổ chức về AI, cuộc sống của các lao động kiểm duyệt này không thực sự tương xứng so với tầm quan trọng của công việc. Phía OpenAI thừa nhận lao động của Sama có vai trò cực kì quan trọng, đóng góp vào sự thành công toàn cầu của ChatGPT. Công việc phân loại, sàng lọc nội dung có hại là cần thiết để giảm thiểu những nội dung xấu độc trong cơ sở dữ liệu đào tạo. Để xây dựng những hệ thống AI lành mạnh và an toàn, phục vụ cho lợi ích cộng đồng, đây là công việc không thể thiếu. Song, dường như những lao động kiểm duyệt không nhận được đối xử tương xứng.Một nhân viên Sama từng nói thường xuyên gặp ảo giác, sau khi xử lý hình ảnh 1 người đàn ông có hành vi quan hệ tình dục với động vật, ngay trước 1 đứa trẻ. Anh nói nó không khác gì “tra tấn” và kiểu nội dung gớm ghiếc đó sẽ còn xuất hiện nhiều trong cả tuần làm việc, khiến tâm trí như đảo lộn và bị ám ảnh.
Hợp đồng rẻ mạt
OpenAI đã ký 3 hợp đồng với Sama để gắn nhãn dữ liệu đầu vào độc hại, bao gồm các loại nội dung kích động thù địch, bạo lực, tuyên truyền cực đoan,... Tổng trị giá khoảng 200.000 USD. Sau đó, họ bắt đầu chia team để mỗi team phân loại từng nhóm nội dung khác nhau. Ba nhân viên phải đọc và dán nhãn 150-250 đoạn văn bản trong mỗi ca làm việc, kéo dài tới 9 tiếng đồng hồ. Mỗi đoạn trích có vài trăm tới 1.000 từ.Quá trình đào tạo và huấn luyện AI đôi khi phải chứng kiến những nội dung rất nặng nề, chả hạn như 1 vụ hiếp dâm. Không ít nhân viên cho biết đã bị tổn thương tinh thần nghiêm trọng do quá ám ảnh. Phía Sama cho biết đã mời những chuyên gia trị liệu tâm lý để giải tỏa bức bối cho người lao động, song, biện pháp đó không thể hiệu quả như kì vọng. Dù vậy, chi trả cho nhân viên rất bèo bọt so với những gì họ phải chịu.
Theo điều khoản hợp đồng, OpenAI trả 12,5 USD/giờ cho đối tác. Song người lao động chỉ kiếm được 170 USD mỗi tháng, 70 USD thưởng hỗ trợ nếu đạt hiệu suất. Nếu chấp nhận tăng ca, họ có thể nhận thêm khoảng 1,4 USD.
Rạn nứt quan hệ
Song, mối quan hệ giữa OpenAI và Sama bắt đầu có sự rạn nứt từ tháng 2/2022. Sama dừng công việc trước 8 tháng so với cam kết trong hợp đồng. Lấy lí do là việc thu thập hình ảnh cho OpenAI không được hướng dẫn cụ thể nhất là những loại nội dung phi pháp. Toàn bộ dự án bị hủy và lao động của Sama được chuyển tới 1 dự án khác. Dẫn tới khoản tiền ban đầu 200.000 USD không được thanh toán đầy đủ.Về cơ bản, công việc sàng lọc và gắn nhãn dữ liệu là 1 phần của các mô hình AI tiên tiến. Cần phải có 1 chuỗi cung ứng lao động rất nhiều người, thực hiện “nuôi dạy AI” để nó đủ thông minh xử lý truy vấn người dùng. Do vậy, tình trạng bóc lột lao động này vẫn sẽ còn nhức nhối như 1 góc khuất của ngành công nghệ AI. Từ việc thu thập dữ liệu bị cho là xâm phạm sở hữu trí tuệ cho tới hoạt động gắn nhãn độc hại.
Theo VN review