Gần đây, các nhà nghiên cứu đã hỏi hai phiên bản ChatGPT khác nhau nơi sinh của giáo sư Tomas Lozano-Perez của Viện Công nghệ Massachusetts (MIT).
Phiên bản đầu tiên trả lời Tây Ban Nha và phiên bản còn lại nói Cuba. Sau khi hệ thống yêu cầu hai bên tranh luận về câu trả lời, chatbot Tây Ban Nha đã nhanh chóng xin lỗi và đồng ý với bot có câu trả lời đúng, Cuba.
Phát hiện này, được công bố bởi một nhóm các nhà nghiên cứu MIT vào tuần trước, là bước đột phá mới nhất trong việc giúp các chatbot đưa ra câu trả lời chính xác. Các nhà nghiên cứu đã đề xuất sử dụng các chatbot khác nhau để đưa ra nhiều câu trả lời cho cùng một câu hỏi, và sau đó để chúng tranh luận cho đến khi một câu trả lời chiến thắng. Họ nhận thấy việc sử dụng phương pháp này khiến chúng trở nên chính xác hơn.
Anh Yilun Du, một nhà nghiên cứu tại MIT, người trước đây là nghiên cứu viên tại OpenAI, và là một trong những tác giả của bài báo nói trên, cho biết: “Các mô hình ngôn ngữ được đào tạo để dự đoán từ tiếp theo. Chúng không được đào tạo để nói rằng chúng không biết chúng đang làm gì”. Kết quả là các chatbot cố tìm cách thỏa mãn người dùng bằng cách bịa ra câu trả lời, thay vì thừa nhận rằng chúng không biết.
Cách tiếp cận của các nhà nghiên cứu là cách mới nhất để giải quyết một trong những mối quan tâm cấp bách nhất trong lĩnh vực AI. Bất chấp những bước nhảy vọt đáng kinh ngạc về khả năng “sáng tạo” của các chatbot như ChatGPT của OpenAI, Bing của Microsoft và Bard của Google, chúng vẫn có một lỗ hổng nghiêm trọng chết người: chúng thường xuyên bịa đặt mọi thứ.
Tìm ra cách khắc phục cái mà lĩnh vực chuyên ngành gọi là “ảo giác” đã trở thành đam mê của nhiều nhân viên công nghệ cũng như các nhà nghiên cứu. Khi công nghệ tiếp cận với hàng triệu người và được tích hợp vào các lĩnh vực quan trọng bao gồm y học và luật pháp, việc hiểu về “ảo giác” và tìm cách giảm thiểu chúng càng trở nên quan trọng hơn.
Hầu hết các nhà nghiên cứu đều đồng ý rằng vấn đề xuất phát từ “các mô hình ngôn ngữ lớn” của các chatbot do cách chúng được thiết kế. Chúng dự đoán điều thích hợp nhất để nói dựa trên lượng dữ liệu khổng lồ mà chúng đã thu thập được trên Internet, nhưng không có cách nào để AI hiểu điều gì là chính xác hay không.
Ngay khi Microsoft ra mắt chatbot Bing, nó đã nhanh chóng đưa ra những cáo buộc vô căn cứ đối với một số người dùng của mình, chẳng hạn như nói với một sinh viên người Đức rằng anh là mối đe dọa đối với sự an toàn của nó. Chatbot đã tự tạo cho mình một danh tính và bắt đầu tự gọi mình là “Sydney”. Về cơ bản, nó đang ứng biến khi được hỏi, dựa trên tất cả những câu chuyện khoa học viễn tưởng mà nó đã thu thập được từ Internet về những con rô-bốt mất kiểm soát.
Microsoft cuối cùng đã phải giới hạn số lượng đối thoại mà một chatbot có thể tương tác với con người để tránh hiện tượng này xảy ra nhiều hơn.
Tại Úc, một quan chức chính phủ đã đe dọa sẽ kiện OpenAI sau khi ChatGPT nói rằng ông đã bị kết tội hối lộ, trong khi thực tế ông là người tố cáo trong một vụ hối lộ. Không những thế, tuần trước, một luật sư đã thừa nhận sử dụng ChatGPT để viết một bản tóm tắt pháp lý - sau khi ông bị bắt quả tang, vì các dẫn chứng được chatbot trích dẫn không hề tồn tại.
Ngay cả Google và Microsoft, những công ty đã đặt tương lai của họ vào AI và đang dẫn đầu trong cuộc đua công nghệ này, đã bỏ qua nhiều “ảo giác” mà chatbot của họ tạo ra.
Tuy nhiên, hàng tỷ USD đang được đầu tư để phát triển các chatbot thông minh hơn, và các công ty đang bắt đầu quảng cáo chúng có thể thay thế cho nhân công. Đầu tháng này, giám đốc điều hành OpenAI, ông Sam Altman, đã phát biểu tại Quốc hội Mỹ rằng AI có thể “gây ra tác hại đáng kể cho thế giới”, bằng cách truyền bá thông tin sai lệch và thao túng cảm xúc của con người. Công nghệ này cũng đặt ra những thách thức nghiêm trọng về an ninh mạng.
“Chưa ai trong lĩnh vực này giải quyết được các vấn đề về “ảo giác”. Tất cả các mô hình chatbot đều có vấn đề này”, ông Sundar Pichai, giám đốc điều hành Google, cho biết. Liệu có thể giải quyết được nó hay không, theo ông, vẫn là một “vấn đề tranh luận gay gắt”.
Tùy thuộc vào cách mỗi người nhìn nhận “ảo giác”, chúng vừa là một đặc tính, vừa là một khuyết điểm của các mô hình ngôn ngữ lớn. “Ảo giác” là những gì cho phép các chatbot sáng tạo ra những câu chuyện chưa từng thấy. Bởi chúng không có hiểu biết sâu sắc về thế giới xung quanh, lập luận rằng chatbot thông minh theo cách giống như con người bị bác bỏ.
Khi một người được yêu cầu viết một bài thơ, họ biết rằng nó không nhất thiết phải thực tế. Nhưng khi được hỏi về tiểu sử của một người có thật, họ tự động biết câu trả lời của họ phải có tính xác thực. Nhưng chatbot chưa có hiểu biết về ngữ cảnh của câu hỏi. “Nó không có khái niệm lúc nào nên sáng tạo hay không”, anh Potsawee Manakul, một nhà nghiên cứu AI tại Đại học Cambridge, cho biết.
Theo anh Manakul “Bởi nó kết hợp thông tin từ nhiều nguồn, nên nó sẽ tạo ra thứ gì đó nghe có vẻ hợp lý”, anh nói. “Nhưng liệu nó có chính xác hay không, đó mới là vấn đề”.
Đó là những gì các công ty hàng đầu đang cố giải quyết. Khi Google tạo kết quả tìm kiếm bằng công nghệ chatbot của mình, nó so sánh câu trả lời của AI và kết quả tìm kiếm truyền thống xem chúng có khớp với nhau hay không. Nếu không, câu trả lời AI sẽ không hiển thị. Công ty đã điều chỉnh để chatbot của họ trở nên kém sáng tạo hơn, nghĩa là nó sẽ không giỏi làm thơ hay có những cuộc trò chuyện thú vị, nhưng nó cũng ít có khả năng nói dối hơn.
Phát ngôn viên của Google, cô Jennifer Rodstrom, cho biết bằng cách giới hạn chatbot tìm kiếm để chứng thực các kết quả tìm kiếm hiện có, công ty đã có thể giảm thiểu “ảo giác” và thông tin không chính xác. Trong một bài viết gần đây của OpenAI, họ cho biết mô hình mới nhất của họ, GPT4, cũng tạo ra ít “ảo giác” so với các phiên bản trước.
Các công ty cũng đang dành thời gian và tiền bạc để cải thiện các mô hình của họ bằng cách thử nghiệm chúng với người thật. Một kỹ thuật mang tên “học tăng cường cùng con người”, trong đó con người cải thiện thủ công các câu trả lời của chatbot rồi đưa chúng trở lại hệ thống để cải thiện nó, được công nhận rộng rãi là đã làm cho ChatGPT tốt hơn rất nhiều so với các phiên bản ra đời trước đó. Một cách tiếp cận phổ biến khác là kết nối các chatbot với cơ sở dữ liệu thực tế hoặc đáng tin cậy, chẳng hạn như Wikipedia, Google hoặc kho tàng các bài báo học thuật hoặc tài liệu kinh doanh.
Nhưng, một số nhà nghiên cứu AI hàng đầu lại cho rằng “ảo giác” nên được chấp nhận. Rốt cuộc, con người cũng có trí nhớ không tốt, và chúng ta cũng có xu hướng tự lấp đầy khoảng trống trong ký ức của chính mình một cách vô thức.
“Chúng tôi sẽ cải thiện nó, nhưng chúng tôi sẽ không bao giờ loại bỏ các “ảo giác”, ông Geoffrey Hinton, người đã có nhiều thập kỷ nghiên cứu đặt nền tảng cho loạt chatbot AI hiện tại, cho biết. “Con người chúng ta sẽ luôn như vậy, và AI cũng sẽ luôn như thế”.