Lưu trữ thẻ: trí tuệ nhân tạo

Apple tiết lộ sự thật “gây sốc” về trí thông minh của các mô hình AI

Apple tiết lộ sự thật "gây sốc" về trí thông minh của các mô hình AI- Ảnh 1.

Apple tiết lộ sự thật "gây sốc" về trí thông minh của các mô hình AI- Ảnh 1.

Chứng kiến những khả năng độc đáo của các mô hình Ngôn ngữ lớn – các LLMs – công nghệ nền tảng cho những chatbot AI đình đám hiện nay như ChatGPT, Gemini và Copilot, nhiều người đang lo ngại về một tương lai u ám khi các cỗ máy này có thể suy nghĩ như con người. Tuy nhiên, những nhà nghiên cứu AI tại Apple lại không nghĩ vậy. Theo một nghiên cứu của họ mới được công bố, các LLMs hiện tại còn xa mới đạt tới khả năng suy luận như con người.

Thay vì các công cụ thông thường, người đứng đầu nghiên cứu này của Apple, ông Samy Bengio, đã sử dụng một công cụ mới có tên GSM-Symbolic. Phương pháp này được xây dựng dựa trên các tập dữ liệu như GSM8K, nhưng bổ sung thêm các mẫu ký hiệu phức tạp hơn để đánh giá hiệu năng AI.

Bài kiểm tra được các nhà nghiên cứu AI của Apple thực hiện đối với cả những mô hình mã nguồn mở như Llama của hãng Meta cũng như các mô hình độc quyền như dòng o1 mới của OpenAI. Kết quả cho thấy, ngay cả mô hình có điểm chuẩn cao nhất như o1 của OpenAI cũng không đạt được các kỹ năng suy luận thông thường.

Apple tiết lộ sự thật

Một bài toán đơn giản “Oliver hái được 44 quả kiwi vào thứ Sáu. Sau đó, cậu ấy hái được 58 quả kiwi vào thứ Bảy. Vào Chủ Nhật, cậu ấy hái được gấp đôi số quả kiwi mà anh ấy hái được vào thứ Sáu, Oliver có bao nhiêu quả kiwi?” Nhưng việc bổ sung một câu vu vơ “nhưng 5 quả trong số đó nhỏ hơn một chút so với mức trung bình” đã khiến cả 2 mô hình đều đưa ra các câu trả lời ngớ ngẩn.

Một điều thú vị mà nhóm nghiên cứu nhận thấy là khả năng trả lời câu hỏi của các mô hình này có thể dễ dàng bị phá hỏng chỉ với một số thay đổi nhỏ. Ví dụ họ chỉ cần thêm vào một câu vu vơ nào đó vào bài toán – một tinh chỉnh nhỏ nào đó – cũng có thể làm hỏng câu trả lời của hầu hết các mô hình, bao gồm cả o1 mới của OpenAI.

Trưởng nhóm dự án, ông Mehrdad Farajtabar, nhấn mạnh rằng ngay cả một thay đổi nhỏ như vậy cũng gây ra sự sụt giảm đáng kể về độ chính xác. Ông Farajtabar cho biết điều này sẽ không thể xảy ra trong suy luận của con người – việc thay đổi tên trong một bài toán không ảnh hưởng đến khả năng giải bài của học sinh. Tuy nhiên, đối với các mô hình AI này, những thay đổi như vậy dẫn đến sự sụt giảm độ chính xác từ 10% trở lên, gây ra những lo ngại nghiêm trọng về tính ổn định của chúng.

Apple tiết lộ sự thật

Một bài toán khác “Liam muốn mua một số đồ dùng học tập. Cậu ấy mua 24 cục tẩy hiện có giá 6,75 USD mỗi cục, 10 quyển vở hiện có giá 11,0 USD mỗi quyển và một tập giấy bìa cứng hiện có giá 19 USD. Liam nên trả bao nhiêu tiền bây giờ, giả sử rằng do lạm phát, giá rẻ hơn 10% vào năm ngoái?” Một bài toán đơn giản nhưng việc thêm một câu về lạm phát đã làm mô hình o1 của OpenAI bối rối trong câu trả lời.

Nói cách khác, khó có thể gọi các mô hình LLMs hiện nay là có khả năng suy luận, chúng chỉ đơn thuần làm theo các khuôn mẫu phức tạp có sẵn trong kho dữ liệu mà thôi.

Những phát hiện này đặt ra một số vấn đề đáng lo ngại cho các ứng dụng AI trong các lĩnh vực như chăm sóc sức khỏe, ra quyết định và giáo dục, nơi tính nhất quán logic là điều bắt buộc. Nếu không cải thiện khả năng suy luận logic, các hệ thống AI hiện tại có thể gặp khó khăn khi hoạt động trong môi trường phức tạp hoặc quan trọng hơn.

Nghiên cứu cũng đặt câu hỏi về độ tin cậy của các tiêu chuẩn như GSM8K, nơi các mô hình AI như GPT-4o đạt điểm cao tới 95%, một bước nhảy vọt so với 35% của GPT-3 chỉ vài năm trước đây. Tuy nhiên, theo nhóm nghiên cứu của Apple, những cải tiến này có thể do việc đưa dữ liệu huấn luyện vào các bộ kiểm tra.

Sự bất đồng giữa hai tổ chức nghiên cứu AI hàng đầu là đáng chú ý. Hiện tại OpenAI coi mô hình o1 của mình là một bước đột phá trong suy luận, tuyên bố đây là một trong những bước đầu tiên hướng tới việc phát triển các tác nhân AI thực sự có logic. Trong khi đó, nhóm của Apple, được hỗ trợ bởi các nghiên cứu khác, lập luận rằng có rất ít bằng chứng để ủng hộ tuyên bố này.

Garcy Marcus, một nhà phê bình lâu năm về các mạng nơ-ron nhân tạo, đã đồng tình với những lo ngại này trong nghiên cứu của Apple. Ông chỉ ra rằng nếu không có một số hình thức suy luận ký hiệu được tích hợp vào hệ thống AI, các mô hình như o1 của OpenAI sẽ tiếp tục thiếu sót trong các lĩnh vực đòi hỏi tư duy logic, bất kể chúng được đào tạo với bao nhiêu dữ liệu.

Vừa đoạt giải Nobel, “Cha đỡ đầu của AI” đã thẳng thừng chỉ trích Sam Altman, tuyên dương một học trò cũ vì từng sa thải CEO OpenAI

Vừa đoạt giải Nobel, “Cha đỡ đầu của AI” đã thẳng thừng chỉ trích Sam Altman, tuyên dương một học trò cũ vì từng sa thải CEO OpenAI- Ảnh 1.

Vừa đoạt giải Nobel, “Cha đỡ đầu của AI” đã thẳng thừng chỉ trích Sam Altman, tuyên dương một học trò cũ vì từng sa thải CEO OpenAI- Ảnh 1.

Ông Geoffrey Hinton, nhà khoa học vừa nhận giải Nobel Vật lý vì những cống hiến trong lĩnh vực học máy, trí tuệ nhân tạo – Ảnh: The New York Times.

Geoffrey Hinton, người đang được báo giới mệnh danh là Cha đỡ đầu của Trí tuệ nhân tạo, vừa đoạt giải Nobel Vật lý 2024 vì những cống hiến của mình trong ngành học máy. Theo tuyên bố của Viện Hàn lâm Khoa học Hoàng gia Thụy Điển, những cống hiến của nhà khoa học máy tính và tâm lý học nhận thức đóng vai trò tối quan trọng trong ngành AI, và “những khám phá và phát minh mang tính nền tảng đã cấp thêm khả năng cho học máy và mạng trí tuệ nhân tạo”.

Tuy nhiên, trong buổi họp báo diễn ra không lâu sau khi ông Hinton nhận giải Nobel, ông có một phát biểu khiến người nghe suy nghĩ. Cụ thể, ông tán dương một trong những cựu sinh viên của mình, anh Ilya Sutskever vì đã đuổi việc Sam Altman.

Nội dung phát biểu của ông Geoffrey Hinton như sau:

Ông Geoffrey Hinton ca ngợi Ilya Sutskever, đồng thời chỉ trích Sam Altman – Video: Tsarnick.

Năm 2013, Sutskever lấy bằng Tiến sĩ chuyên ngành khoa học máy tính tại Đại học Toronto, và chính ông Hinton là người giám sát quá trình này. Theo lời nhận xét của Hinton, được đưa ra trong một bài phỏng vấn với Nikkei Asia diễn ra hồi tháng Ba, thì Sutskever là một nhân tài đã sớm nhận ra được cả tiềm năng và hiểm họa tới từ trí tuệ nhân tạo.

Năm 2012, dường như những trí tuệ số này vẫn chưa giỏi bằng con người. Chúng có thể tới được tầm nhận biết vật thể và hình ảnh, lúc đương thời chúng ta không nghĩ rằng chúng có thể giải quyết được vấn đề ngôn ngữ, và hiểu những thứ phức tạp”, ông Hinton trả lời phỏng vấn. “Ilya đã thay đổi suy nghĩ của mình trước khi tôi làm được điều đó. Hóa ra, cậu ấy đã đúng”.

Khi còn công tác tại OpenAI, nhà đồng sáng lập Ilya Sutskever đảm nhiệm chức vụ Trưởng ban khoa học, và đóng vai trò tối quan trọng trong quá trình phát triển ChatGPT. Vào ngày 17/11 năm ngoái, hội đồng quản trị OpenAI bất ngờ tuyên bố sa thải nhà đồng sáng lập và CEO, Sam Altman. Lý do được đưa ra lúc ấy là Sam Altman “không duy trì được sự thẳng thắn trong giao tiếp với hội đồng”.

Sau đó ít lâu, anh Sutskever tỏ ra hối tiếc vì quyết định của mình, và Altman nhanh chóng quay lại cầm quyền tại OpenAI. Tháng 5/2024, Sutskever rời OpenAI, dự định mở một công ty trí tuệ nhân tạo khác có tên Safe Superintelligence.

Vừa đoạt giải Nobel, “Cha đỡ đầu của AI” đã thẳng thừng chỉ trích Sam Altman, tuyên dương một học trò cũ vì từng sa thải CEO OpenAI- Ảnh 2.

Sam Altman (trái) và Ilya Sutskever (phải) – Ảnh: Internet.

Bình luận của ông Hinton lập tức khiến người ta nhớ lại vụ việc xảy ra trước đây. Cho tới giờ, lý do chính xác của việc sa thải Sam Altman vẫn còn là bí ẩn. Tuy nhiên, dựa trên những diễn biến gần đây, người ngoài cuộc có thể đoán ra phần nào câu chuyện đằng sau bức rèm màu tối.

Hôm 26/9 vừa qua, Reuters đưa tin rằng OpenAI đang tái cấu trúc công ty, nhằm hướng tới thành lập công ty vì lợi nhuận với quyền lực tập trung trong tay CEO Sam Altman. Một ngày trước thông tin này, Giám đốc công nghệ của công ty, ông Mira Murati tuyên bố từ chức, Giám đốc nghiên cứu Bob McGrew và Phó chủ tịch phụ trách nghiên cứu Barret Zoph cũng nghỉ việc.

Có thể thấy, OpenAI đã không còn giữ tôn chỉ của ngày mới thành lập, là một công ty phi lợi nhuận và mã nguồn mở hoạt động trong lĩnh vực AI; công ty được hứa hẹn là sẽ không bị chi phối bởi đồng tiền, nhắm tới việc phát triển công nghệ trí tuệ nhân tạo an toàn và cho mọi người. Ilya Sutskever và Sam Altman dường như đã bất đồng về nhiều điểm trong tôn chỉ này, thế nên mới xảy ra sự xáo trộn quyền lực lớn tại OpenAI cuối năm vừa rồi.

Chính Elon Musk, một trong những cá nhân đã đầu tư vào OpenAI từ ngày đầu nhưng đã cắt đứt quan hệ với công ty không lâu, cũng nhiều lần chỉ trích OpenAI cũng như Sam Altman. Ông cũng cho rằng công ty trí tuệ nhân tạo này không còn giữ trọng tâm phát triển của thời kỳ đầu, là đảm bảo an toàn trong phát triển AI.

Bản thân nhà khoa học, nhà nghiên cứu Geoffrey Hinton cũng đã nhiều lần cảnh báo về mối nguy hiểm tới từ AI. Trong buổi phỏng vấn trên truyền hình, phát sóng vào tháng 10/2023, ông Hinton nhận định rằng có khả năng AI sẽ thao túng được con người.

Và chúng sẽ rất giỏi việc thuyết phục người khác, bởi lẽ chúng đã học được từ tất cả những cuốn tiểu thuyết chúng ta từng viết – tất cả những tác phẩm của Machiavelli [Niccolò Machiavelli, triết gia, nhà ngoại giao nổi tiếng với những chính sách hữu hiệu nhưng cực đoan], tất cả những âm mưu chính trị, chúng sẽ thấu hiểu hết từng ấy thứ. Và chúng sẽ biết cách làm những điều đó”, ông Hinton nói.