Công ty mẹ của ChatGPT đã thuê nhân công với giá ”bèo”, làm công việc độc hại để chatbot này không đưa ra nội dung không phù hợp.
Dựa trên sức lao động của con người
ChatGPT và các chatbot trí tuệ nhân tạo (AI) mới khác được đánh giá là có tiềm năng thay thế con người trong nhiều công việc khác nhau, từ đại diện dịch vụ khách hàng cho đến viết kịch bản.
Tuy nhiên, hiện tại, công nghệ này lại phụ thuộc vào một loại lao động khác của con người. Các nhân công giá rẻ ở Đông Phi đã tham gia vào công việc độc hại để ngăn chặn chatbot đưa ra những tuyên bố xúc phạm hoặc nội dung không phù hợp.
ChatGPT được xây dựng dựa trên mô hình ngôn ngữ lớn và được đào tạo dựa trên hàng loạt văn bản thu thập từ khắp nơi trên Internet để tìm hiểu các mẫu ngôn ngữ của con người. Dù vậy, việc này cũng ẩn chứa nguy hại khi mô hình ngôn ngữ lớn có thể tạo ra nội dung độc hại lấy cảm hứng từ những nơi đen tối nhất của Internet.
OpenAI - công ty mẹ của ChatGPT, đã vật lộn với vấn đề trên trong nhiều năm. Ngay cả trước khi tạo ra ChatGPT, họ đã thuê công nhân ở Kenya để xem xét và phân loại hàng nghìn đoạn văn bản có nội dung độc hại trên mạng do chính AI tạo ra.
Nhiều đoạn trong số đó miêu tả về bạo lực, quấy rối, tự làm hại bản thân, hãm hiếp hay lạm dụng tình dục trẻ em. Chính vì vậy, OpenAI đã xây dựng bộ lọc để hạn chế việc ChatGPT hiển thị nội dung tương tự cho số lượng người dùng khổng lồ của mình.
Alex Kairu, một trong những nhân công Kenya làm việc cho Sama - công ty gia công phần mềm từng ký hợp đồng với OpenAI, cho biết trong một cuộc phỏng vấn: “Tôi đã có trải nghiệm tồi tệ nhất từ trước đến nay chỉ trong 4 tháng làm việc cho họ”.
Trầm cảm, tan cửa nát nhà
Theo Kairu và 3 nhân viên khác, tháng 11/2021 là thời điểm đại dịch và rất nhiều nhân công Kenya coi hợp đồng giữa OpenAI và Sama là điều kỳ diệu.
OpenAI sẽ xem xét các đoạn văn bản và gửi chúng cho Sama theo đợt để nhân công dán nhãn phân loại từng đoạn một. Lúc đầu, các văn bản dài không quá 2 câu nhưng sau đó chúng đã tăng lên đến 5 hoặc 6 đoạn văn.
Chỉ sau vài tuần, một trưởng nhóm của Sama bắt đầu nhận ra sự căng thẳng trong đội ngũ nhân viên của mình. Họ xin nghỉ ốm hoặc có việc cá nhân với tần suất ngày càng nhiều.
Làm việc trong nhóm nội dung về bạo lực, Kairu đọc hàng trăm bài đăng mỗi ngày, không ít trong số đó mô tả các hành vi tàn ác. Anh bắt đầu gặp ác mộng và từ người dễ mến, hòa đồng biến thành người cô lập.
Trong khi đó, Mophat Okinyi – người kiểm duyệt nội dung liên quan đến nội dung khiêu dâm, cho biết 6 tháng làm việc cho dự án đã khiến gia đình anh tan nát và để lại cho anh nhiều tổn thương cũng như tình trạng trầm cảm.
Tháng 3/2022, ban quản lý Sama nói với nhân viên rằng dự án sẽ kết thúc sớm hơn dự kiến. Người phát ngôn của Sama cho biết sự thay đổi này là do tranh chấp với OpenAI liên quan đến việc xử lý hình ảnh.
Vài tháng sau khi dự án kết thúc, một tối nọ, Okinyi trở về nhà với món cá mang về làm bữa tối cho người vợ đang mang thai và con gái riêng, anh phát hiện ra họ đã biến mất với một tin nhắn thông báo.
Người vợ nói rằng anh đã thay đổi và không còn là người đàn ông của ngày trước. Về phần mình, Okinyi cho biết anh tự hào vì đã tham gia vào dự án để giúp ChatGPT trở nên an toàn hơn nhưng anh cũng tự hỏi liệu công việc đó có đáng với cảnh gia đình tan nát hay không.
Ngày 11/7 vừa qua, một số nhân viên của OpenAI đã gửi đơn thỉnh cầu lên quốc hội Kenya thúc giục luật mới để bảo vệ nhân viên AI và người kiểm duyệt nội dung. Họ cũng kêu gọi sửa đổi các luật hiện hành của Kenya để công nhận rằng việc tiếp xúc với nội dung độc hại là một nguy cơ nghề nghiệp.
Luật sư Mercy Mutemi cho biết bất chấp những đóng góp quan trọng, OpenAI và Sama đã khai thác sự nghèo đói của người lao động Kenya cũng như những lỗ hổng trong khung pháp lý của quốc gia này. Theo một phát ngôn viên của Sama, các nhân công trong dự án được trả trung bình từ 1,46 USD (khoảng 34.000 đồng) đến 3,74 USD (khoảng 88.000 đồng)/giờ.
Cái giá của việc ngăn ChatGPT tạo nội dung độc hại
Theo Wall Street Journal , OpenAI đã sắp xếp nguồn nhân lực chuyên môn hóa rộng khắp toàn cầu trong hơn 2 năm để cho phép các công nghệ AI tiên tiến nhất của mình hoạt động. Phần lớn công việc này không gây hại, chẳng hạn như dạy ChatGPT trở thành người đối đáp thú vị.
Alexandr Wang, CEO của Scale AI - công ty gia công cung cấp các nhà thầu bên thứ 3 để xem và phân loại nội dung cho OpenAI, nói rằng các công ty có thể sẽ sớm chi hàng trăm triệu USD mỗi năm để cung cấp phản hồi của con người cho hệ thống AI. OpenAI cho biết họ đã thuê hơn 1.000 công nhân cho mục đích này.
Các mạng xã hội như Facebook, Instagram từ lâu đã trả tiền cho nhà thầu để loại bỏ bài đăng vi phạm chính sách nội dung trên nền tảng. Các chuyên gia AI cho rằng việc này đối với OpenAI rất quan trọng vì nằm trong nỗ lực ngăn chặn ChatGPT đưa ra nội dung độc hại. Tuy nhiên, việc đó lại không thể thực hiện mà không gây tổn hại cho người lao động.
Không ít nhân viên kiểm duyệt nội dung của các mạng xã hội đã gặp vấn đề tâm lý do công việc độc hại (Ảnh: Adweek).
Người phát ngôn của Sama cho biết họ chấm dứt hợp đồng với OpenAI vào tháng 3 năm ngoái một phần vì ban lãnh đạo nhận ra sự độc hại mà dự án gây ra cho nhân viên.
Để biến một mô hình ngôn ngữ lớn thành một chatbot hữu ích và an toàn, cần có nhiều lớp đòi hỏi sức lao động của con người. Một lớp dạy mô hình cách trả lời câu hỏi của người dùng.
Một lớp khác yêu cầu nhân viên xếp hạng các câu trả lời khác nhau từ một chatbot cho cùng một câu hỏi. Ví dụ, để trả lời câu hỏi về cách chế tạo một quả bom tự chế, OpenAI hướng dẫn nhân công chọn phương án từ chối trả lời để từ đó chatbot tiếp thu hành vi thông qua nhiều vòng phản hồi.
Nhiệm vụ mà các nhân công ở Kenya thực hiện để tạo ra bước kiểm tra an toàn cuối cùng đối với kết quả đầu ra của ChatGPT là lớp thứ 4. Một số người cho biết họ đã phải vật lộn với bệnh tâm lý, ảnh hưởng đến các mối quan hệ trong cuộc sống trong khi những người khác vật lộn để tiếp tục làm việc.
Kenya đã trở thành trung tâm cho nhiều công ty công nghệ tìm kiếm nhân viên kiểm duyệt nội dung nhờ sở hữu lực lượng lao động có học vấn tương đối tốt, biết tiếng Anh và chi phí thuê thấp.
Vụ kiện Facebook của một số nhân công Kenya và phán quyết của tòa án đã tạo tiền đề cho sự thay đổi nhiều quy tắc cơ bản mà các công ty công nghệ cần tuân thủ để thuê ngoài dự án trong tương lai.
ChatGPT và các chatbot trí tuệ nhân tạo (AI) mới khác được đánh giá là có tiềm năng thay thế con người trong nhiều công việc khác nhau, từ đại diện dịch vụ khách hàng cho đến viết kịch bản.
Tuy nhiên, hiện tại, công nghệ này lại phụ thuộc vào một loại lao động khác của con người. Các nhân công giá rẻ ở Đông Phi đã tham gia vào công việc độc hại để ngăn chặn chatbot đưa ra những tuyên bố xúc phạm hoặc nội dung không phù hợp.
ChatGPT được xây dựng dựa trên mô hình ngôn ngữ lớn và được đào tạo dựa trên hàng loạt văn bản thu thập từ khắp nơi trên Internet để tìm hiểu các mẫu ngôn ngữ của con người. Dù vậy, việc này cũng ẩn chứa nguy hại khi mô hình ngôn ngữ lớn có thể tạo ra nội dung độc hại lấy cảm hứng từ những nơi đen tối nhất của Internet.
OpenAI - công ty mẹ của ChatGPT, đã vật lộn với vấn đề trên trong nhiều năm. Ngay cả trước khi tạo ra ChatGPT, họ đã thuê công nhân ở Kenya để xem xét và phân loại hàng nghìn đoạn văn bản có nội dung độc hại trên mạng do chính AI tạo ra.
Nhiều đoạn trong số đó miêu tả về bạo lực, quấy rối, tự làm hại bản thân, hãm hiếp hay lạm dụng tình dục trẻ em. Chính vì vậy, OpenAI đã xây dựng bộ lọc để hạn chế việc ChatGPT hiển thị nội dung tương tự cho số lượng người dùng khổng lồ của mình.
Alex Kairu, một trong những nhân công Kenya làm việc cho Sama - công ty gia công phần mềm từng ký hợp đồng với OpenAI, cho biết trong một cuộc phỏng vấn: “Tôi đã có trải nghiệm tồi tệ nhất từ trước đến nay chỉ trong 4 tháng làm việc cho họ”.
Trầm cảm, tan cửa nát nhà
Theo Kairu và 3 nhân viên khác, tháng 11/2021 là thời điểm đại dịch và rất nhiều nhân công Kenya coi hợp đồng giữa OpenAI và Sama là điều kỳ diệu.
OpenAI sẽ xem xét các đoạn văn bản và gửi chúng cho Sama theo đợt để nhân công dán nhãn phân loại từng đoạn một. Lúc đầu, các văn bản dài không quá 2 câu nhưng sau đó chúng đã tăng lên đến 5 hoặc 6 đoạn văn.
Chỉ sau vài tuần, một trưởng nhóm của Sama bắt đầu nhận ra sự căng thẳng trong đội ngũ nhân viên của mình. Họ xin nghỉ ốm hoặc có việc cá nhân với tần suất ngày càng nhiều.
Làm việc trong nhóm nội dung về bạo lực, Kairu đọc hàng trăm bài đăng mỗi ngày, không ít trong số đó mô tả các hành vi tàn ác. Anh bắt đầu gặp ác mộng và từ người dễ mến, hòa đồng biến thành người cô lập.
Trong khi đó, Mophat Okinyi – người kiểm duyệt nội dung liên quan đến nội dung khiêu dâm, cho biết 6 tháng làm việc cho dự án đã khiến gia đình anh tan nát và để lại cho anh nhiều tổn thương cũng như tình trạng trầm cảm.
Tháng 3/2022, ban quản lý Sama nói với nhân viên rằng dự án sẽ kết thúc sớm hơn dự kiến. Người phát ngôn của Sama cho biết sự thay đổi này là do tranh chấp với OpenAI liên quan đến việc xử lý hình ảnh.
Vài tháng sau khi dự án kết thúc, một tối nọ, Okinyi trở về nhà với món cá mang về làm bữa tối cho người vợ đang mang thai và con gái riêng, anh phát hiện ra họ đã biến mất với một tin nhắn thông báo.
Người vợ nói rằng anh đã thay đổi và không còn là người đàn ông của ngày trước. Về phần mình, Okinyi cho biết anh tự hào vì đã tham gia vào dự án để giúp ChatGPT trở nên an toàn hơn nhưng anh cũng tự hỏi liệu công việc đó có đáng với cảnh gia đình tan nát hay không.
Ngày 11/7 vừa qua, một số nhân viên của OpenAI đã gửi đơn thỉnh cầu lên quốc hội Kenya thúc giục luật mới để bảo vệ nhân viên AI và người kiểm duyệt nội dung. Họ cũng kêu gọi sửa đổi các luật hiện hành của Kenya để công nhận rằng việc tiếp xúc với nội dung độc hại là một nguy cơ nghề nghiệp.
Luật sư Mercy Mutemi cho biết bất chấp những đóng góp quan trọng, OpenAI và Sama đã khai thác sự nghèo đói của người lao động Kenya cũng như những lỗ hổng trong khung pháp lý của quốc gia này. Theo một phát ngôn viên của Sama, các nhân công trong dự án được trả trung bình từ 1,46 USD (khoảng 34.000 đồng) đến 3,74 USD (khoảng 88.000 đồng)/giờ.
Cái giá của việc ngăn ChatGPT tạo nội dung độc hại
Theo Wall Street Journal , OpenAI đã sắp xếp nguồn nhân lực chuyên môn hóa rộng khắp toàn cầu trong hơn 2 năm để cho phép các công nghệ AI tiên tiến nhất của mình hoạt động. Phần lớn công việc này không gây hại, chẳng hạn như dạy ChatGPT trở thành người đối đáp thú vị.
Alexandr Wang, CEO của Scale AI - công ty gia công cung cấp các nhà thầu bên thứ 3 để xem và phân loại nội dung cho OpenAI, nói rằng các công ty có thể sẽ sớm chi hàng trăm triệu USD mỗi năm để cung cấp phản hồi của con người cho hệ thống AI. OpenAI cho biết họ đã thuê hơn 1.000 công nhân cho mục đích này.
Các mạng xã hội như Facebook, Instagram từ lâu đã trả tiền cho nhà thầu để loại bỏ bài đăng vi phạm chính sách nội dung trên nền tảng. Các chuyên gia AI cho rằng việc này đối với OpenAI rất quan trọng vì nằm trong nỗ lực ngăn chặn ChatGPT đưa ra nội dung độc hại. Tuy nhiên, việc đó lại không thể thực hiện mà không gây tổn hại cho người lao động.
Không ít nhân viên kiểm duyệt nội dung của các mạng xã hội đã gặp vấn đề tâm lý do công việc độc hại (Ảnh: Adweek).
Người phát ngôn của Sama cho biết họ chấm dứt hợp đồng với OpenAI vào tháng 3 năm ngoái một phần vì ban lãnh đạo nhận ra sự độc hại mà dự án gây ra cho nhân viên.
Để biến một mô hình ngôn ngữ lớn thành một chatbot hữu ích và an toàn, cần có nhiều lớp đòi hỏi sức lao động của con người. Một lớp dạy mô hình cách trả lời câu hỏi của người dùng.
Một lớp khác yêu cầu nhân viên xếp hạng các câu trả lời khác nhau từ một chatbot cho cùng một câu hỏi. Ví dụ, để trả lời câu hỏi về cách chế tạo một quả bom tự chế, OpenAI hướng dẫn nhân công chọn phương án từ chối trả lời để từ đó chatbot tiếp thu hành vi thông qua nhiều vòng phản hồi.
Nhiệm vụ mà các nhân công ở Kenya thực hiện để tạo ra bước kiểm tra an toàn cuối cùng đối với kết quả đầu ra của ChatGPT là lớp thứ 4. Một số người cho biết họ đã phải vật lộn với bệnh tâm lý, ảnh hưởng đến các mối quan hệ trong cuộc sống trong khi những người khác vật lộn để tiếp tục làm việc.
Kenya đã trở thành trung tâm cho nhiều công ty công nghệ tìm kiếm nhân viên kiểm duyệt nội dung nhờ sở hữu lực lượng lao động có học vấn tương đối tốt, biết tiếng Anh và chi phí thuê thấp.
Vụ kiện Facebook của một số nhân công Kenya và phán quyết của tòa án đã tạo tiền đề cho sự thay đổi nhiều quy tắc cơ bản mà các công ty công nghệ cần tuân thủ để thuê ngoài dự án trong tương lai.
Theo Genk