Hiểm họa khi 'đặt cược' sức khỏe tinh thần vào chatbot AI

Nam, 22 tuổi, ở TP HCM, dành hàng giờ trò chuyện với chatbot AI, tin rằng "người bạn ảo" hiểu mình hơn gia đình hay bác sĩ tâm lý.

Chàng trai hiện là sinh viên năm cuối đại học ngân hàng, vốn nhút nhát và ít giao tiếp, bị suy sụp tinh thần sau cú sốc chia tay tình đầu. Cậu tìm đến chatbot AI như ChatGPT hay DeepSeek để tâm sự 4-5 tiếng mỗi ngày. Ban đầu, AI khiến Nam cảm thấy thoải mái nhờ sự lắng nghe và không phán xét. Nhưng sau 8 tháng, nam sinh bắt đầu lúng túng trong giao tiếp đời thực, trả lời người khác cộc lốc giống phong cách chatbot. Ảo giác về giọng nói của AI dần xuất hiện, khiến Nam tin rằng "người bạn ảo" này hiểu mình hơn gia đình hay bác sĩ.

Gia đình đề nghị đi khám, Nam phản ứng dữ dội: "AI hiểu tôi hơn con người! Bác sĩ chỉ muốn kiếm tiền!". Khi được đưa đến gặp chuyên gia tâm lý, Nam được chẩn đoán mắc chứng "ám ảnh sợ xã hội", còn được gọi rối loạn lo âu xã hội (Social Anxiety Disorder, SAD) do cách ly quá lâu với thế giới thực.

Trường hợp khác, Mai, 25 tuổi, ngụ Long An, bắt đầu có dấu hiệu căng thẳng, lo âu kéo dài từ sau khi mất việc. Thay vì tìm gặp chuyên gia tâm lý, cô sử dụng chatbot AI hàng ngày để trò chuyện, chia sẻ nỗi buồn. Ban đầu, cô cảm thấy dễ chịu vì AI luôn lắng nghe và đưa ra những câu trả lời khuôn mẫu như "Bạn không đơn độc" hay "Hãy thử tập thể dục", "Tình trạng không nghiêm trọng, bạn sẽ ổn thôi" khiến Mai tin rằng bản thân không có bệnh.

Tuy nhiên, sau 6 tháng, triệu chứng của Mai trở nặng: mất ngủ, suy nghĩ tiêu cực, thậm chí có ý định tự hại bản thân. Khi gia đình phát hiện và đưa đi khám, bác sĩ chẩn đoán cô bị rối loạn lo âu, có dấu hiệu trầm cảm, cần can thiệp bằng thuốc và trị liệu tâm lý.

Nhiều người dùng sử dụng ChatGPT để tư vấn tình cảm, trị liệu tâm lý. Ảnh minh họa: Verywell / Alison Czinkota

Nhiều người dùng sử dụng ChatGPT để tư vấn tình cảm, trị liệu tâm lý. Ảnh minh họa: Verywell / Alison Czinkota

Nam và Mai không phải là trường hợp cá biệt. Theo OpenAI, hơn 200 triệu người trên thế giới sử dụng ChatGPT mỗi tuần, không chỉ để làm việc mà còn để tìm kiếm hướng giải quyết cho các vấn đề cá nhân. Trên mạng xã hội, nhiều người thẳng thắn chia sẻ họ coi chatbot AI là phương án thay thế cho tư vấn tâm lý vì tính tiện lợi. Trong bối cảnh kinh tế bất ổn, chi phí trị liệu cao khiến dịch vụ này càng thu hút.

Thực tế, không ít nhân vật nổi tiếng cũng dùng AI để đối phó tình huống nhạy cảm. Nữ ca sĩ Lily Allen từng tiết lộ sử dụng ChatGPT để soạn tin nhắn hòa giải với chồng và cả lời lẽ để tránh các cuộc tranh cãi liên quan đến mẹ chồng. Nhà văn Andrew O’Hagan lại tận dụng chatbot để từ chối lời mời một cách lịch sự, tránh gây mất lòng.

Một nghiên cứu của Ella Hafermalz, phó giáo sư tại Vrije Universiteit Amsterdam, ghi nhận nhiều người tìm đến chatbot vì tò mò hoặc đang trong trạng thái lo âu. Tuy nhiên, ứng dụng AI như cố vấn tâm lý không hoàn toàn là "phép màu". Theo các chuyên gia, công cụ này chứa đựng những vấn đề phức tạp hơn những gì người dùng nhận ra.

Theo thạc sĩ tâm lý lâm sàng Vương Nguyễn Toàn Thiện, Giám đốc chuyên môn Trung tâm Lumos, AI dù thông minh nhưng không có cảm xúc thật sự. Dựa trên dữ liệu lập trình, AI chỉ phản hồi ở mức cơ bản, phù hợp với các kịch bản định sẵn, nhưng không thể mô phỏng mối quan hệ liên cá nhân – điều cốt lõi trong trị liệu tâm lý.

Chuyên gia cũng chỉ ra rằng, AI có thể dựa trên các bài kiểm tra lâm sàng để đưa đánh giá, nhưng không thể cảm nhận và thấu hiểu những khổ đau sâu kín của người dùng. Điều này đặc biệt nguy hiểm với những người mắc rối loạn lo âu, trầm cảm nặng hoặc trải qua tổn thương tâm lý, vì AI không đủ khả năng xử lý vấn đề phức tạp.

Minh họa tư vấn tâm lý. Ảnh: Pexel

Minh họa tư vấn tâm lý. Ảnh: Pexel

Một nguy cơ lớn khác là sự phụ thuộc ngày càng tăng vào AI. Người dùng có thể trì hoãn việc tìm kiếm trợ giúp từ bác sĩ hoặc chuyên gia tâm lý chuyên sâu. Điều này dẫn đến những rủi ro như bỏ lỡ chẩn đoán quan trọng, khiến bệnh tình chuyển nặng, và trong nhiều trường hợp, khó điều trị hơn.

Hơn nữa, AI không có khả năng theo dõi liên tục và toàn diện tình trạng tâm lý của người dùng. Những trường hợp nguy cấp, chẳng hạn như ý định tự hại hoặc hành vi nguy hiểm, có thể bị bỏ sót. Kết quả là việc điều trị bị trì hoãn, ảnh hưởng đến khả năng hồi phục của bệnh nhân. Đầu năm 2025, một khảo sát của MIT Media Lab trên 4.000 người trò chuyện với ChatGPT trong vòng 4 tuần nhận thấy những người sử dụng chatbot thường xuyên có xu hướng cảm thấy cô đơn hơn. Chế độ giọng nói của chatbot thu hút nhưng lại khiến người vốn cô độc trở nên phụ thuộc nhiều hơn, làm trầm trọng thêm tình trạng.

Giáo sư Jodi Halpern tại Đại học California cho rằng việc lập trình AI để bắt chước cảm xúc con người có thể bị xem là hình thức thao túng tâm lý. Bà cảnh báo, AI không thể thay thế hoàn toàn các nhà trị liệu được đào tạo bài bản.

Dẫu vậy, không thể phủ nhận AI đang mở ra nhiều cơ hội trong lĩnh vực chăm sóc sức khỏe tinh thần. Thạc sĩ Thiện nhận định, AI có thể hỗ trợ sàng lọc triệu chứng ban đầu, cung cấp bài tập quản lý căng thẳng và theo dõi tâm trạng. Công cụ này cũng giúp nhà trị liệu tiết kiệm thời gian trong việc thống kê, phân loại dữ liệu và đưa ra góc nhìn đa chiều để hiểu hành vi, cảm xúc bệnh nhân.

Nhìn xa hơn, AI có thể là cầu nối giúp nhiều người tiếp cận dịch vụ tâm lý hơn, đặc biệt tại các quốc gia thiếu hụt chuyên gia. Tuy nhiên, để phát huy tối đa lợi ích, công nghệ này cần được kiểm soát chặt chẽ, đảm bảo tính bảo mật và minh bạch trong việc sử dụng dữ liệu.

Jeff Guenther, một cố vấn tâm lý tại Mỹ, bày tỏ quan ngại về rủi ro bảo mật khi người dùng chia sẻ thông tin riêng tư với các hệ thống AI. Ông chỉ ra rằng, lời khuyên từ chatbot có thể dựa trên dữ liệu của những người không chuyên hoặc lấy từ mạng xã hội như Twitter, Reddit, thay vì nguồn thông tin đáng tin cậy.

Trong tương lai, điều quan trọng là kết hợp AI với các chuyên gia tâm lý, để AI chỉ đóng vai trò hỗ trợ hơn là thay thế. "AI chưa và sẽ không bao giờ thay thế được sự đồng cảm và kết nối của con người", thạc sĩ Thiện khẳng định.

Mỹ Ý

Link nội dung: https://phunuvathoidaivn.com/hiem-hoa-khi-dat-cuoc-suc-khoe-tinh-than-vao-chatbot-ai-a122366.html