Có nên tin vào "bác sĩ" AI, ChatGPT, Gemini?

Admin

Ngày càng có nhiều người tìm đến trí tuệ nhân tạo (AI) để tự trị bệnh khi gặp vấn đề sức khỏe. Tuy nhiên nếu mù quáng tin theo những lời tư vấn khuyến cáo của AI, ChatGPT và Gemini thì rủi ro rất cao, đôi khi là đe dọa đến tính mạng.

Trí tuệ nhân tạo, ChatGPT và Gemini đưa lời khuyên y tế thường sai lệch, người bệnh cẩn thận với sức khỏe - Ảnh 1.

Chatbot AI hiện có thể hữu ích để tóm tắt thông tin hoặc gợi ý câu hỏi tiếp theo khi bạn tìm hiểu về vấn đề sức khỏe.

Các nhà nghiên cứu đã kiểm tra 5 chatbot AI lớn gồm ChatGPT, Gemini, Grok, Meta AI và DeepSeek bằng 250 câu hỏi về các chủ đề sức khỏe phổ biến như ung thư, vắc-xin, dinh dưỡng… nhằm đánh giá mức độ bám sát bằng chứng khoa học.

Kết quả cho thấy khoảng một nửa câu trả lời có vấn đề, như sai lệch, thiếu thông tin quan trọng hoặc tiềm ẩn rủi ro; trong đó, câu hỏi mở dễ dẫn đến phản hồi kém an toàn hơn so với câu hỏi cụ thể.

Một nghiên cứu khác của Trường Y khoa Icahn tại Mount Sinai (Mỹ), công bố trên Nature Medicine (2/2026), cho thấy ChatGPT có thể đưa ra khuyến cáo sai trong nhiều tình huống y tế. 

Khi thử nghiệm 60 ca bệnh thuộc 21 chuyên khoa với gần 960 tương tác, công cụ này chỉ tư vấn đúng 48,4% các ca cấp cứu và 35,2% các ca không khẩn cấp, thậm chí có trường hợp khuyên theo dõi tại nhà thay vì nhập viện ngay.

AI cũng mắc lỗi trong các tình huống nghiêm trọng như hen suyễn nặng, biến chứng tiểu đường. Theo chuyên gia Girish Nadkarni, chatbot xử lý tốt các ca “rõ ràng” nhưng dễ sai với tình huống nguy hiểm tiềm ẩn, vốn cần xét nghiệm chuyên sâu.

Ngoài ra, chất lượng tài liệu tham khảo rất thấp (chỉ khoảng 40%), thậm chí có trường hợp bịa nguồn nhưng vẫn trả lời với mức độ chắc chắn cao, thiếu cảnh báo về độ tin cậy.

Trí tuệ nhân tạo, ChatGPT và Gemini đưa lời khuyên y tế thường sai lệch, người bệnh cẩn thận với sức khỏe - Ảnh 2.VTV chính thức công bố bản quyền phát sóng World Cup 2026ĐỌC NGAY

Nghiên cứu chỉ bao gồm năm chatbot, các sản phẩm này thay đổi nhanh chóng, và các câu hỏi được xây dựng nhằm gây áp lực cho mô hình nên có thể làm phóng đại tần suất xuất hiện câu trả lời sai trong sử dụng hàng ngày. Tuy nhiên, việc thử nghiệm trên các chủ đề y tế dựa trên bằng chứng mà vẫn thấy tỷ lệ lỗi cao là điều khó bỏ qua.

Chatbot AI hiện có thể hữu ích để tóm tắt thông tin hoặc gợi ý câu hỏi tiếp theo khi bạn tìm hiểu về vấn đề sức khỏe, nhưng chúng chưa đủ tin cậy để đưa ra quyết định y tế quan trọng. 

Người dùng nên kiểm chứng thông tin, ưu tiên nguồn y tế chính thống và tham khảo chuyên gia y tế trước khi hành động dựa trên lời khuyên từ chatbot.

Cuối cùng, thông điệp từ nghiên cứu này rất đơn giản: trí tuệ nhân tạo có thể giúp chúng ta hiểu rõ hơn các triệu chứng bệnh lý, nhưng AI không bao giờ thay thế được bác sĩ bằng xương bằng thịt.

Quỳnh Chi (t/h)