Microsoft và Google đang trong cuộc chạy đua trí thông minh nhân tạo (AI), cam kết công nghệ này sẽ đem lại thời kỳ mới cho toàn ngành. Thế nhưng theo tờ Business Insider (BI), bất kỳ cuộc cách mạng công nghệ nào cũng sẽ đi kèm rủi ro của nó.
Kẻ dối trá bẩm sinh
ChatGPT là kẻ dối trá bẩm sinh, dù con chatbot này không thực sự có chủ đích làm như vậy. Sản phẩm của nhà Microsoft chỉ đơn giản là không hiểu người dùng đang nói gì, những câu trả lời của nó hoàn toàn là “ăn cắp” từ những nguồn khác nhau, hoặc thậm chí là bịa ra nội dung đó.
Kỹ thuật nền tảng làm nên thành công của ChatGPT là các Mô hình ngôn ngữ lớn (Large Language Model-LLM) và đây là thứ kỹ thuật cho phép chatbot này bịa ra đủ thứ linh tinh. Bởi vậy rõ ràng ChatGPT không thể thay thế con người bởi độ chính xác thông tin là khá thấp.
Lỗi kiểu này có mặt ở mọi chatbot, từ ChatGPT, Bing của Microsoft cho đến Bard của Google. Chúng có thể sáng tạo ra những số liệu sinh học, các công trình nghiên cứu bịa đặt hoặc chỉ đơn giản là trả lời sai những kiến thức cơ bản.
Thậm chí, những chatbot như ChatGPT còn khuyên người dùng đang mắc các chứng bệnh tâm thần về việc tự sát, khuếch đại về sự phân biệt chủng tộc, giới tính...
Nhiều người sẽ nói rằng với AI, chúng có thể tự học hỏi và sửa lỗi, trong khi nhiều người nói rằng Internet đầy rẫy những thứ nhảm nhí như vậy và loài người vẫn sống tốt.
Thế nhưng tờ The Verge nhận định chẳng có điều gì đảm bảo chúng ta có thể giải quyết triệt để lỗi nói láo này của chatbot vì việc bịa đặt thông tin đã là nền tảng kỹ thuật của nó. Các doanh nghiệp cũng không thể suốt ngày đi tìm và sửa lỗi, trong khi sự an toàn của người dùng lại phụ thuộc vào các AI này khi chúng được áp dụng rộng rãi.
Định nghĩa đúng sai
Trong thị trường tìm kiếm thông tin, việc xác định một câu trả lời chính xác duy nhất (One True Answer) thường rất nguy hiểm. Đây là điều khiến Google gặp chỉ trích cách đây 10 năm khi họ ra mắt phần trả lời câu hỏi ngắn trên đầu trang với một số thông tin tìm kiếm của người dùng.
Báo cáo nghiên của của chuyên gia Chirag Shah và Emily M Bender cho thấy AI khiến việc trả lời đúng sai trở nên quá rõ ràng và đơn điệu, loại bỏ khả năng tự tìm kiếm, tổng hợp thông tin và đánh giá nội dung của người dùng.
Điều này cực kỳ nguy hiểm khi AI có thể ảnh hưởng đến kiến thức của người dùng, đặt ra những tiêu chuẩn về thông tin thay vì cung cấp nhiều câu trả lời khác nhau cho người dùng tự quyết định.
Trên thực tế, Google đã cố gắng phát triển theo hướng tư duy “Không có câu trả lời nào thực sự chính xác” (No One Right Answer-NORA) nhưng với áp lực phát triển AI từ đối thủ Microsoft, nhiều khả năng tập đoàn sẽ buộc phải bỏ qua tiêu chuẩn này để tham gia cuộc đua vì lợi nhuận.
Hủy diệt Internet
Những câu trả lời của AI thường được tổng hợp từ Internet, từ các website khác. Thế nhưng lượng tương tác mà các chatbot như ChatGPT có được thì lại chẳng trả về những website này.
Hậu quả là những nguồn thông tin trên Internet, các website mạng sẽ bị hạ lượt tương tác và chết dần vì không có doanh thu.
Phía Microsoft tranh luận rằng họ đã tích hợp nguồn thông tin cho công cụ Bing để người dùng vào xem lại trang nguồn. Thế nhưng AI được kỳ vọng là sẽ đem lại những câu trả lời chính xác trọng điểm, tổng hợp ngắn gọn những nội dung dài dòng. Với ưu thế này, liệu có bao nhiêu người dùng còn muốn quay lại trang nguồn để kiểm chứng?
Lây truyền độc hại
Một yếu tố nữa khiến AI trở nên cực kỳ nguy hiểm là khả năng tự học hỏi không có kiểm soát của mình. Do AI điều chỉnh câu trả lời qua mỗi câu hỏi của người dùng khác nhau nên những phần tử xấu có thể lan truyền các thông tin có hại, khiến các chatbot lầm tưởng rằng chúng là câu trả lời chính xác.
Quá trình này được gọi là “Jaibreaking AI” và chúng có thể được thực hiện mà không cần có chút kiến thức lập trình gì. Tất cả những gì mà kẻ xấu cần là khả năng thuyết phục bằng từ ngữ.
Cách lan truyền này không chỉ có thể đưa những thông tin có hại lên chatbot mà còn có thể yêu cầu chúng đóng giả làm “kẻ xấu” để tham gia một trò chơi nhập vai giả tưởng, qua đó gây ảnh hưởng đến khả năng phán đoán cũng như tự học hỏi của AI.
Đại chiến văn hóa AI
Chatbot là những nền tảng không thực sự hiểu con người đang nói gì, bởi vậy nó cho ra những câu trả lời không thực sự chính xác. Tuy nhiên chính điều này có thể gây nên sự xung đột về văn hóa, tôn giáo hay thậm chí chính trị nếu AI được áp dụng rộng rãi.
Việc người dùng điên tiết vì những câu trả lời mang tính xúc phạm đến văn hóa, giới tính, tôn giáo là điều sẽ thường xuyên diễn ra khi giao tiếp với các chatbot.
Hiện mọi người vẫn còn dung thứ cho ChatGPT bởi nó vẫn còn mới, được kỳ vọng là sẽ cải tiến và tự học dần. Thế nhưng sẽ ra sao nếu ChatGPT cố định câu trả lời có lợi cho nhóm người dùng đa số và làm tổn thương những người thiểu số?
Nhận thức được điều này, sản phẩm Bing của Microsoft đã cố gắng tích hợp nguồn nội dung của câu trả lời, thế nhưng ai sẽ kiểm chứng những nguồn này là chính xác?
Trên thực tế, chính sự “không nhân tính” của AI và các thuật toán là một trong những nguyên nhân khiến Facebook, mạng xã hội lớn nhất thế giới bị chỉ trích. Việc đăng tải, lan truyền những thông tin gây tranh cãi một cách vô thức của thuật toán có thể khiến cả công ty rơi vào bê bối, đồng thời khiến xã hội mất ổn định.
Đây là điều đã từng diễn ra trong cuộc bỏ phiếu Brexit của Anh, cuộc bầu cử Tổng thống Mỹ năm 2016 và 2020.
Đốt tiền
Dù chưa có một thống kê chính xác nhưng tất cả các chuyên gia trong ngành đều thừa nhận AI, chatbot sẽ tốn nhiều tài nguyên, nguồn lực hơn những thuật toán cho công cụ tìm kiếm thông thường.
Đầu tiên, công ty sẽ phải đổ hàng trăm triệu USD cho mỗi phép lặp (Iteration) trong chu trình tính toán của các AI. Đây là lý do mà Microsoft đổ hàng tỷ USD cho OpenAI, cha đẻ của ChatGPT nhưng startup này vẫn đang lỗ nặng dù đã chuyển từ tổ chức phi lợi nhuận sang công ty kinh doanh.
Tờ Fortune cho biết năm 2022, OpenAI đạt doanh thu 30 triệu USD nhưng tiêu tốn đến 416,45 triệu USD chi phí máy chủ và xử lý dữ liệu, hơn 89 triệu USD lương nhân viên và 39 triệu USD cho các chi phí hoạt động khác. Tổng số lỗ là 544,5 triệu USD.
Dù ChatGPT đã ra phiên bản trả phí nhưng chúng không thể bù đắp được chi phí tài nguyên cho mỗi câu trả lời, nhất là khi người dùng hỏi quá dài và phức tạp.
Thêm nữa, việc đốt tiền này khiến Microsoft và Google trở thành những ông lớn trong ngành khi rào cản quá lớn. Chi phí cao nhưng doanh thu đầy rủi ro khiến các người chơi mới với kinh phí hạn hẹp chỉ có thể đứng ngoài.
Bản quyền
Công nghệ AI đang phát triển mạnh nhưng các nhà làm luật cũng dần chú ý tới chúng. Bởi vậy khi chính phủ ban hành các quy định về luật chơi thì AI có lẽ sẽ không hấp dẫn như mọi người tưởng.
Ví dụ nếu Liên minh Châu Âu (EU) quy định các doanh nghiệp phát triển AI phải trả tiền bản quyền cho nội dung mà nó sử dụng thì liệu Microsoft và Google có còn lợi nhuận? Nếu họ chuyển những chi phí này cho người dùng hay doanh nghiệp quảng cáo thì liệu chúng có còn hấp dẫn hơn so với công cụ tìm kiếm truyền thống?
Thế rồi câu chuyện về quyền bảo mật thông tin cá nhân hay vô số những quy định khác mà AI chưa hề được xem xét đến. Tất cả đều là những thách thức to lớn và niềm hứng khởi của các công ty trong mảng này có lẽ còn quá sớm.
ChatGPT là kẻ dối trá bẩm sinh, dù con chatbot này không thực sự có chủ đích làm như vậy. Sản phẩm của nhà Microsoft chỉ đơn giản là không hiểu người dùng đang nói gì, những câu trả lời của nó hoàn toàn là “ăn cắp” từ những nguồn khác nhau, hoặc thậm chí là bịa ra nội dung đó.
Kỹ thuật nền tảng làm nên thành công của ChatGPT là các Mô hình ngôn ngữ lớn (Large Language Model-LLM) và đây là thứ kỹ thuật cho phép chatbot này bịa ra đủ thứ linh tinh. Bởi vậy rõ ràng ChatGPT không thể thay thế con người bởi độ chính xác thông tin là khá thấp.
Lỗi kiểu này có mặt ở mọi chatbot, từ ChatGPT, Bing của Microsoft cho đến Bard của Google. Chúng có thể sáng tạo ra những số liệu sinh học, các công trình nghiên cứu bịa đặt hoặc chỉ đơn giản là trả lời sai những kiến thức cơ bản.
Thậm chí, những chatbot như ChatGPT còn khuyên người dùng đang mắc các chứng bệnh tâm thần về việc tự sát, khuếch đại về sự phân biệt chủng tộc, giới tính...
Nhiều người sẽ nói rằng với AI, chúng có thể tự học hỏi và sửa lỗi, trong khi nhiều người nói rằng Internet đầy rẫy những thứ nhảm nhí như vậy và loài người vẫn sống tốt.
Thế nhưng tờ The Verge nhận định chẳng có điều gì đảm bảo chúng ta có thể giải quyết triệt để lỗi nói láo này của chatbot vì việc bịa đặt thông tin đã là nền tảng kỹ thuật của nó. Các doanh nghiệp cũng không thể suốt ngày đi tìm và sửa lỗi, trong khi sự an toàn của người dùng lại phụ thuộc vào các AI này khi chúng được áp dụng rộng rãi.
Định nghĩa đúng sai
Trong thị trường tìm kiếm thông tin, việc xác định một câu trả lời chính xác duy nhất (One True Answer) thường rất nguy hiểm. Đây là điều khiến Google gặp chỉ trích cách đây 10 năm khi họ ra mắt phần trả lời câu hỏi ngắn trên đầu trang với một số thông tin tìm kiếm của người dùng.
Báo cáo nghiên của của chuyên gia Chirag Shah và Emily M Bender cho thấy AI khiến việc trả lời đúng sai trở nên quá rõ ràng và đơn điệu, loại bỏ khả năng tự tìm kiếm, tổng hợp thông tin và đánh giá nội dung của người dùng.
Điều này cực kỳ nguy hiểm khi AI có thể ảnh hưởng đến kiến thức của người dùng, đặt ra những tiêu chuẩn về thông tin thay vì cung cấp nhiều câu trả lời khác nhau cho người dùng tự quyết định.
Trên thực tế, Google đã cố gắng phát triển theo hướng tư duy “Không có câu trả lời nào thực sự chính xác” (No One Right Answer-NORA) nhưng với áp lực phát triển AI từ đối thủ Microsoft, nhiều khả năng tập đoàn sẽ buộc phải bỏ qua tiêu chuẩn này để tham gia cuộc đua vì lợi nhuận.
Hủy diệt Internet
Những câu trả lời của AI thường được tổng hợp từ Internet, từ các website khác. Thế nhưng lượng tương tác mà các chatbot như ChatGPT có được thì lại chẳng trả về những website này.
Hậu quả là những nguồn thông tin trên Internet, các website mạng sẽ bị hạ lượt tương tác và chết dần vì không có doanh thu.
Phía Microsoft tranh luận rằng họ đã tích hợp nguồn thông tin cho công cụ Bing để người dùng vào xem lại trang nguồn. Thế nhưng AI được kỳ vọng là sẽ đem lại những câu trả lời chính xác trọng điểm, tổng hợp ngắn gọn những nội dung dài dòng. Với ưu thế này, liệu có bao nhiêu người dùng còn muốn quay lại trang nguồn để kiểm chứng?
Lây truyền độc hại
Một yếu tố nữa khiến AI trở nên cực kỳ nguy hiểm là khả năng tự học hỏi không có kiểm soát của mình. Do AI điều chỉnh câu trả lời qua mỗi câu hỏi của người dùng khác nhau nên những phần tử xấu có thể lan truyền các thông tin có hại, khiến các chatbot lầm tưởng rằng chúng là câu trả lời chính xác.
Quá trình này được gọi là “Jaibreaking AI” và chúng có thể được thực hiện mà không cần có chút kiến thức lập trình gì. Tất cả những gì mà kẻ xấu cần là khả năng thuyết phục bằng từ ngữ.
Cách lan truyền này không chỉ có thể đưa những thông tin có hại lên chatbot mà còn có thể yêu cầu chúng đóng giả làm “kẻ xấu” để tham gia một trò chơi nhập vai giả tưởng, qua đó gây ảnh hưởng đến khả năng phán đoán cũng như tự học hỏi của AI.
Đại chiến văn hóa AI
Chatbot là những nền tảng không thực sự hiểu con người đang nói gì, bởi vậy nó cho ra những câu trả lời không thực sự chính xác. Tuy nhiên chính điều này có thể gây nên sự xung đột về văn hóa, tôn giáo hay thậm chí chính trị nếu AI được áp dụng rộng rãi.
Việc người dùng điên tiết vì những câu trả lời mang tính xúc phạm đến văn hóa, giới tính, tôn giáo là điều sẽ thường xuyên diễn ra khi giao tiếp với các chatbot.
Hiện mọi người vẫn còn dung thứ cho ChatGPT bởi nó vẫn còn mới, được kỳ vọng là sẽ cải tiến và tự học dần. Thế nhưng sẽ ra sao nếu ChatGPT cố định câu trả lời có lợi cho nhóm người dùng đa số và làm tổn thương những người thiểu số?
Nhận thức được điều này, sản phẩm Bing của Microsoft đã cố gắng tích hợp nguồn nội dung của câu trả lời, thế nhưng ai sẽ kiểm chứng những nguồn này là chính xác?
Trên thực tế, chính sự “không nhân tính” của AI và các thuật toán là một trong những nguyên nhân khiến Facebook, mạng xã hội lớn nhất thế giới bị chỉ trích. Việc đăng tải, lan truyền những thông tin gây tranh cãi một cách vô thức của thuật toán có thể khiến cả công ty rơi vào bê bối, đồng thời khiến xã hội mất ổn định.
Đây là điều đã từng diễn ra trong cuộc bỏ phiếu Brexit của Anh, cuộc bầu cử Tổng thống Mỹ năm 2016 và 2020.
Đốt tiền
Dù chưa có một thống kê chính xác nhưng tất cả các chuyên gia trong ngành đều thừa nhận AI, chatbot sẽ tốn nhiều tài nguyên, nguồn lực hơn những thuật toán cho công cụ tìm kiếm thông thường.
Đầu tiên, công ty sẽ phải đổ hàng trăm triệu USD cho mỗi phép lặp (Iteration) trong chu trình tính toán của các AI. Đây là lý do mà Microsoft đổ hàng tỷ USD cho OpenAI, cha đẻ của ChatGPT nhưng startup này vẫn đang lỗ nặng dù đã chuyển từ tổ chức phi lợi nhuận sang công ty kinh doanh.
Tờ Fortune cho biết năm 2022, OpenAI đạt doanh thu 30 triệu USD nhưng tiêu tốn đến 416,45 triệu USD chi phí máy chủ và xử lý dữ liệu, hơn 89 triệu USD lương nhân viên và 39 triệu USD cho các chi phí hoạt động khác. Tổng số lỗ là 544,5 triệu USD.
Dù ChatGPT đã ra phiên bản trả phí nhưng chúng không thể bù đắp được chi phí tài nguyên cho mỗi câu trả lời, nhất là khi người dùng hỏi quá dài và phức tạp.
Thêm nữa, việc đốt tiền này khiến Microsoft và Google trở thành những ông lớn trong ngành khi rào cản quá lớn. Chi phí cao nhưng doanh thu đầy rủi ro khiến các người chơi mới với kinh phí hạn hẹp chỉ có thể đứng ngoài.
Bản quyền
Công nghệ AI đang phát triển mạnh nhưng các nhà làm luật cũng dần chú ý tới chúng. Bởi vậy khi chính phủ ban hành các quy định về luật chơi thì AI có lẽ sẽ không hấp dẫn như mọi người tưởng.
Ví dụ nếu Liên minh Châu Âu (EU) quy định các doanh nghiệp phát triển AI phải trả tiền bản quyền cho nội dung mà nó sử dụng thì liệu Microsoft và Google có còn lợi nhuận? Nếu họ chuyển những chi phí này cho người dùng hay doanh nghiệp quảng cáo thì liệu chúng có còn hấp dẫn hơn so với công cụ tìm kiếm truyền thống?
Thế rồi câu chuyện về quyền bảo mật thông tin cá nhân hay vô số những quy định khác mà AI chưa hề được xem xét đến. Tất cả đều là những thách thức to lớn và niềm hứng khởi của các công ty trong mảng này có lẽ còn quá sớm.
Theo Genk