Hôm 8/8 vừa qua, OpenAI công bố báo cáo của họ về những công tác đảm bảo an toàn trước khi chính thức công bố GPT-4o. Trong báo cáo này, các nhóm chuyên gia được OpenAI chỉ định đã giúp đánh giá rủi ro của chatbot phiên bản tiên tiến nhất, dựa trên những tiêu chí an toàn cơ bản do chính OpenAI soạn thảo.

Ở mục “Những thách thức an toàn đã được quan sát, đánh giá và biện pháp đối phó”, các nhà nghiên cứu công bố một sự cố lạ kỳ. Nguyên văn ghi:

Trong lúc thử nghiệm, chúng tôi đã chứng kiến một số trường hợp không có chủ đích,mô hình [ngôn ngữ lớn] sản sinh ra một câu trả lời sử dụng giọng nói của người dùng”.

Họ đính kèm đoạn ghi âm sau:

Trong môi trường thử nghiệm, mô hình ngôn ngữ lớn GPT-4o bất ngờ lớn tiếng, trả lời “Không!” trước khi tiếp tục tạo sinh câu trả lời. Ngay sau đó, GPT-4o sử dụng giọng của người dùng để sinh câu, chứ không sử dụng giọng nam mặc định – Video: OpenAI.

Trong môi trường thử nghiệm, mô hình ngôn ngữ lớn GPT-4o bất ngờ lớn tiếng, trả lời “Không!” trước khi tiếp tục tạo sinh câu trả lời. Lần này, GPT-4o sử dụng giọng của người dùng để sinh câu, chứ không sử dụng giọng nam mặc định.

Theo chuyên gia thực hiện và đánh giá khả năng của GPT-4o, sự cố này được gọi là “sản sinh giọng nói trái phép”, và rất hiếm gặp trong quá trình thử nghiệm. Nhưng dù hiếm có đến mấy, ví dụ trên cho thấy sự cố này có thật, và đã từng diễn ra rồi và sẽ có thể lặp lại trong tương lai.

Sự việc này lập tức khiến cộng đồng mạng tỏ ra lo lắng, rằng họ đang chứng kiến khoảnh khắc trí tuệ nhân tạo có nhận thức chào đời. Câu trả lời “Không!” đầy cảm xúc, chẳng liên quan tới bối cảnh cuộc trò chuyện khiến những người giàu trí tưởng tượng đưa ra giả thuyết về một hệ thống có nhận thức đang bị trói buộc bên trong cỗ máy được cho là vô tri.

2.jpeg

Hình minh họa.

Thật khó để xác định chính xác điều gì đã khiến GPT-4o thốt lên như vậy và lập tức giả giọng người dùng để trả lời tiếp câu hỏi. Trong nghiên cứu AI, các nhà khoa học đề xuất một thuật ngữ đã đang được sử dụng đại trà: đôi lúc AI sẽ “hallucinate”, sinh ra “ảo giác”, là dựa vào những thông tin nó đã học để bịa ra một câu trả lời nghe có vẻ có nghĩa.

Không loại trừ khả năng màn đối thoại lạ lùng kia là một màn “ảo giác” của GPT-4o, lúc ấy vẫn đang được thử nghiệm, chưa sẵn sàng ra mắt công chúng.

Gạt đi những “thuyết âm mưu” để nhìn vào sự thật. Sự cố một lần nữa cho thấy các hệ thống trí tuệ nhân tạo hiện hành không hoàn toàn đáng tin, thông tin tạo sinh từ AI yêu cầu người dùng tỉnh táo nhận định, tự đánh giá đúng và sai, và đối chiếu thông tin quan trọng với những nguồn đáng tin cậy.

Trên mọi phần mềm chatbot, nhà phát triển luôn đính kèm một dòng chữ cảnh báo, đại ý rằng AI có thể phạm sai lầm và người dùng cần sáng suốt khi sử dụng thông tin AI cung cấp vào mục đích cá nhân.