Giọng nói của ChatGPT mới giống hệt giọng người thật

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Hãng OpenAI bắt đầu triển khai chế độ giọng nói nâng cao của ChatGPT từ ngày 30/7 (theo giờ Mỹ), cho phép người dùng lần đầu tiên truy cập vào các phản hồi âm thanh thực sự giống giọng người thật của GPT-4o. Phiên bản mới nhất có thể cảm nhận được cảm xúc trong giọng nói của người dùng, bao gồm sự buồn bã, phấn khích hoặc hát.

Phiên bản alpha dành cho một nhóm nhỏ người dùng ChatGPT Plus (đóng phí), và OpenAI cho biết tính năng này sẽ dần dần triển khai cho tất cả người dùng Plus vào mùa thu năm 2024.

Khi OpenAI lần đầu tiên giới thiệu giọng nói của GPT-4o vào tháng Năm, tính năng này đã gây sốc cho khán giả với các phản hồi nhanh chóng và sự giống nhau đáng kinh ngạc với giọng nói của con người thực – một giọng đặc biệt. Giọng nói này, Sky, giống với giọng của minh tinh Scarlett Johansson .

Ngay sau khi OpenAI trình diễn, Johansson cho biết cô đã từ chối nhiều lời mời từ CEO Sam Altman cho phép hãng sử dụng giọng của mình, và sau khi xem bản demo của GPT-4o, đã thuê luật sư để bảo vệ hình ảnh của mình.

scarlett-johansson-openai-8646-1722472391906-1722472392032694029968.jpg

Minh tinh Scarlett Johansson không đồng ý cho OpenAI sử dụng giọng của cô. Ảnh: Today Show​

OpenAI phủ nhận việc sử dụng giọng của Johansson, nhưng sau đó đã loại bỏ giọng nói được trình diễn trong demo của mình. Vào tháng Sáu, OpenAI cho biết sẽ trì hoãn việc phát hành chế độ giọng nói nâng cao để tăng biện pháp an toàn.

Một tháng sau, OpenAI cho biết các khả năng video và chia sẻ màn hình được giới thiệu trong bản cập nhật Mùa xuân mà không có trong phiên bản alpha sẽ sớm ra mắt.

Hiện tại, bản demo GPT-4o vẫn chỉ là một bản demo, nhưng một số người dùng cao cấp có quyền truy cập vào tính năng giọng nói của ChatGPT.​

Giọng nói của ChatGPT mới giống hệt giọng người thật- Ảnh 2.
Diễn viên Mỹ Scarlett Johansson. Ảnh: Vanity Fair​

ChatGPT giờ đây có thể nói và nghe

Người dùng có thể thử chế độ giọng nói hiện có trong ChatGPT, nhưng OpenAI cho biết chế độ giọng nói nâng cao sẽ rất khác biệt.

Giải pháp cũ của ChatGPT cho âm thanh sử dụng ba mô hình riêng biệt: Một để chuyển giọng nói của người dùng thành văn bản, GPT-4 để xử lý yêu cầu của người dùng, và sau đó một mô hình thứ ba để chuyển văn bản của ChatGPT thành giọng nói.

Nhưng GPT-4o là mô hình đa phương tiện, có khả năng xử lý các nhiệm vụ này mà không cần sự hỗ trợ của các mô hình phụ trợ, tạo ra các cuộc trò chuyện có độ trễ thấp hơn đáng kể.

OpenAI cũng tuyên bố GPT-4o có thể cảm nhận được cảm xúc trong giọng nói của người dùng, bao gồm sự buồn bã, phấn khích hoặc hát.

Người dùng ChatGPT Plus được trải nghiệm trực tiếp tính thực sự giống giọng người thật của chế độ giọng nói nâng cao.

Giọng nói của ChatGPT mới giống hệt giọng người thật- Ảnh 3.
OpenAI cho biết đã thử nghiệm khả năng giọng nói của GPT-4o với hơn 100 nhóm đánh giá độc lập bên ngoài, nói 45 ngôn ngữ khác nhau. Ảnh: OpenAI​

OpenAI cho biết đang phát hành giọng nói mới của ChatGPT một cách dần dần để giám sát chặt chẽ việc sử dụng tính năng này. Những người trong nhóm alpha sẽ nhận được thông báo trong ứng dụng ChatGPT, sau đó là email hướng dẫn cách sử dụng.

Trong những tháng kể từ khi OpenAI trình diễn, công ty cho biết đã thử nghiệm khả năng giọng nói của GPT-4o với hơn 100 nhóm đánh giá độc lập bên ngoài, nói 45 ngôn ngữ khác nhau. Một báo cáo về kết quả thử nghiệm sẽ được phát hành vào đầu tháng Tám.

Công ty cho biết chế độ giọng nói nâng cao sẽ bị giới hạn ở bốn giọng nói mặc định của ChatGPT – Juniper, Breeze, Cove và Ember – được tạo ra với sự hợp tác của các diễn viên lồng tiếng trả phí.

Giọng nói Sky được giới thiệu trong bản demo tháng Năm của OpenAI không còn có sẵn trong ChatGPT. Người phát ngôn của OpenAI, Lindsay McCallum, nói: “ChatGPT không thể giả mạo giọng nói của người khác, cả cá nhân và nhân vật công chúng, và sẽ chặn các đầu ra khác với một trong những giọng nói mặc định này”.

Giọng nói của ChatGPT mới giống hệt giọng người thật- Ảnh 4.
Một số người dùng trả phí của OpenAI được truy cập chế độ giọng nói nâng cao của ChatGPT từ ngày 30/7. Ảnh: Open AI​

OpenAI đang cố gắng tránh các tranh cãi về deepfake . Vào tháng Giêng, công nghệ sao chép giọng nói của startup AI ElevenLabs đã được sử dụng để giả mạo giọng Tổng thống Mỹ Biden, lừa dối cử tri ở bang New Hampshire.

OpenAI tuyên bố đã giới thiệu các bộ lọc mới để chặn các yêu cầu tạo nhạc hoặc âm thanh có bản quyền.

Trong năm qua, các hãng AI đã gặp rắc rối pháp lý vì vi phạm bản quyền, và các mô hình âm thanh như GPT-4o sẽ mở ra một giai đoạn mới mà các công ty hoàn toàn có thể nộp đơn khiếu nại, đặc biệt là các hãng thu âm – họ đã kiện các đơn vị tạo bài hát AI như Suno, Udio…

Theo Genk
 

alihieu

Active Member
Căng nhỉ, càng phát triển như này cũng rất tiện nhưng lại rất dễ cho bọn lừa đảo lợi dụng. Cần phải có những biện pháp ngăn chặn không rồi lại rất nhiều người bị lừa. Giả khuôn mặt rồi giờ đến giọng nói nữa thì thực sự nguy hiểm
 

alihieu

Active Member
Căng nhỉ, càng phát triển như này cũng rất tiện nhưng lại rất dễ cho bọn lừa đảo lợi dụng. Cần phải có những biện pháp ngăn chặn không rồi lại rất nhiều người bị lừa. Giả khuôn mặt rồi giờ đến giọng nói nữa thì thực sự nguy hiểm
 
Bên trên