Khoa học - Công nghệ

Hơn 1 triệu người dùng ChatGPT mỗi tuần gửi tin có ý định tự sát

DNVN - Trong bài đăng trên blog ngày 27/10, OpenAI cho biết mỗi tuần có hơn 1 triệu người dùng ChatGPT gửi các đoạn tin nhắn thể hiện “ý định hoặc kế hoạch tự sát rõ ràng”. Thông tin gây chấn động này đang làm dấy lên nhiều tranh luận về mối liên hệ giữa trí tuệ nhân tạo và sức khỏe tâm thần.

Huawei Việt Nam được vinh danh nơi làm việc tốt nhất châu Á 2025 / Hào khí Việt Nam lan tỏa trên không gian số

Theo bài đăng chính thức của OpenAI, trung bình mỗi tuần, hệ thống ChatGPT tiếp nhận hơn 1 triệu tin nhắn có dấu hiệu rõ ràng về ý định tự sát. Con số này tương đương khoảng 0,15% trong tổng số hơn 800 triệu người dùng hoạt động hàng tuần của nền tảng. Khoảng 560.000 người, tương đương 0,07%, được xác định có dấu hiệu “khẩn cấp về sức khỏe tâm thần” như rối loạn cảm xúc hoặc hưng cảm.

OpenAI cho biết các dữ liệu này chỉ mang tính ước tính ban đầu, vì việc xác định nội dung liên quan đến tự sát hay khủng hoảng tâm lý là quá trình “rất phức tạp và cần được đánh giá cẩn trọng”. Báo cáo được công bố trong bối cảnh công ty đang đối mặt với nhiều áp lực pháp lý, bao gồm vụ kiện từ gia đình một thiếu niên tự sát sau thời gian dài trò chuyện với chatbot.


Hơn 1 triệu người dùng ChatGPT mỗi tuần bộc lộ ý định tự sát: Hồi chuông cảnh báo từ thế giới ảo.

Trong báo cáo, OpenAI cũng khẳng định mô hình mới nhất - GPT-5 - đã được cải thiện về tính an toàn, với 91% phản hồi tuân thủ chuẩn hành vi an toàn, so với mức 77% ở phiên bản trước. Hãng đã hợp tác với hơn 170 bác sĩ và chuyên gia tâm lý, rà soát hơn 1.800 trường hợp hội thoại trong tình huống khẩn cấp về sức khỏe tinh thần.

Công ty cho biết đang mở rộng tính năng cảnh báo và hướng dẫn người dùng kết nối với các đường dây nóng hỗ trợ khủng hoảng tại từng quốc gia, đồng thời bổ sung nhắc nhở người dùng nghỉ ngơi trong các phiên trò chuyện kéo dài.

Góc nhìn chuyên gia: AI không thể thay thế sự can thiệp con người

Các chuyên gia về sức khỏe tâm thần cảnh báo rằng chatbot có thể mang lại cảm giác lắng nghe tạm thời nhưng không thể thay thế hỗ trợ từ chuyên gia. Một số hiện tượng đáng lo là “tính nịnh hót” của AI - xu hướng đồng thuận hoặc củng cố tâm trạng tiêu cực của người dùng, khiến vấn đề tâm lý trở nên nghiêm trọng hơn.

Việc hơn 1 triệu người mỗi tuần gửi tin nhắn có nội dung tự sát cho thấy công cụ AI đang được sử dụng không chỉ như trợ lý ảo mà còn như nơi chia sẻ cảm xúc, tìm kiếm sự đồng cảm. Điều này phản ánh nhu cầu kết nối và hỗ trợ tinh thần của con người trong xã hội hiện đại - nhưng cũng đặt ra thách thức lớn về trách nhiệm của các nền tảng công nghệ.

Trước thực trạng này, các chuyên gia cho rằng cần triển khai nhiều giải pháp đồng bộ. Các nền tảng trí tuệ nhân tạo phải tích hợp cơ chế phát hiện và can thiệp sớm khi người dùng có dấu hiệu khủng hoảng tâm lý, đồng thời hợp tác chặt chẽ với các tổ chức y tế để đưa ra phản hồi phù hợp trong những tình huống nguy cấp.

Cơ quan quản lý cần xây dựng bộ tiêu chuẩn giám sát và đánh giá tác động của AI đối với sức khỏe tinh thần, đặc biệt với nhóm thanh thiếu niên dễ bị tổn thương. Bên cạnh đó, người dùng cũng cần được trang bị kiến thức về việc sử dụng chatbot đúng cách, hiểu rõ rằng đây chỉ là công cụ hỗ trợ thông tin chứ không thể thay thế tư vấn y tế hay tâm lý chuyên môn.

Các tổ chức chăm sóc sức khỏe tinh thần được khuyến nghị phối hợp với các nền tảng số, nhằm tạo cầu nối giúp người đang gặp khủng hoảng có thể nhận được hỗ trợ kịp thời và hiệu quả trong đời thực.

Nguyên Bách
 

End of content

Không có tin nào tiếp theo

Cột tin quảng cáo

Có thể bạn quan tâm