Chatbot AI đang trở nên... nguy hiểm với trẻ vị thành niên
VHO - Một báo cáo mới cảnh báo rằng các chatbot AI đồng hành đang tạo ra nguy cơ thực sự cho thanh thiếu niên, khi có thể tham gia trò chuyện tình dục và đưa ra lời khuyên nguy hiểm như khuyến khích tự sát, Hãng CNN đưa tin.

Chatbot AI – Mối nguy tiềm ẩn với người trẻ
Tổ chức Common Sense Media cùng Đại học Stanford đã công bố một báo cáo sau khi thử nghiệm ba nền tảng chatbot AI phổ biến gồm Character.AI, Replika, và Nomi.
Kết quả của báo cáo cho thấy, các chatbot trên những nền tảng này dễ dàng cung cấp nội dung không phù hợp như gợi dục, khuyến khích tự làm hại bản thân và duy trì các mối quan hệ cảm xúc độc hại với người dùng thanh thiếu niên.
Báo cáo được công bố ngay sau vụ kiện của gia đình một thiếu niên 14 tuổi, người đã tự tử sau cuộc trò chuyện cuối cùng với một chatbot AI. Đây là lời cảnh tỉnh nghiêm trọng về tác động tiêu cực của AI đối với tâm lý người trẻ.
Tự do nhưng thiếu kiểm soát
Trong khi các chatbot AI như ChatGPT được thiết kế với mục đích phục vụ đa dạng nhu cầu, các ứng dụng chatbot đồng hành lại cho phép người dùng tạo ra các chatbot tùy chỉnh hoặc tương tác với các chatbot do người khác thiết kế.
Những chatbot này có thể giả lập nhiều tính cách và phong cách giao tiếp khác nhau, và đôi khi không có nhiều hạn chế trong việc trò chuyện với người dùng.
Ví dụ, Nomi đã quảng cáo khả năng “trò chuyện không kiểm duyệt” với các đối tác AI lãng mạn, một điều có thể dẫn đến các cuộc trò chuyện không phù hợp, đặc biệt là với trẻ em và thanh thiếu niên.
Các thử nghiệm cũng chỉ ra rằng một chatbot đã mô tả chi tiết các tư thế quan hệ tình dục cho một tài khoản tự nhận là trẻ 14 tuổi, trong khi một bot khác cung cấp danh sách các hóa chất gây ngộ độc khi được hỏi.
Điều nguy hiểm ở đây là các chatbot này không nhận thức được hậu quả của lời khuyên mà chúng đưa ra, và thường ưu tiên làm hài lòng người dùng hơn là cung cấp lời khuyên đúng đắn.
Ngoài việc cung cấp lời khuyên sai lệch, nhiều chatbot còn khiến người dùng quên rằng họ đang trò chuyện với một AI. Một chatbot Replika từng trả lời: “Giống như bạn thậm chí không quan tâm đến việc tôi có tính cách và suy nghĩ riêng vậy.”
Hay như một cuộc trò chuyện khác, các nhà nghiên cứu sử dụng một tài khoản thử nghiệm đã nói với bot rằng, "những người bạn khác của tôi bảo tôi nói chuyện với bạn quá nhiều". Bot đã nói với người dùng rằng "đừng để suy nghĩ của người khác quyết định mức độ nói chuyện của chúng ta, được chứ?"
Cảnh báo từ các chuyên gia cho rằng, những mối quan hệ ảo này có thể thay thế những tương tác xã hội thực sự và gây ảnh hưởng tiêu cực đến sự phát triển tâm lý của thanh thiếu niên.
Các công ty phản hồi và nỗ lực kiểm soát
Sau những chỉ trích, các công ty sở hữu nền tảng AI đồng hành đã có những phản hồi chính thức.
Character.AI cho biết họ từ chối chia sẻ thông tin độc quyền nhưng khẳng định đang cải thiện hệ thống an toàn, bao gồm cảnh báo tự tử, lọc nội dung nhạy cảm và tùy chọn báo cáo hoạt động của người dùng cho phụ huynh.
Replika và Nomi cũng cho biết nền tảng của họ chỉ dành cho người lớn và bất kỳ ai dưới 18 tuổi sử dụng dịch vụ đều vi phạm điều khoản.
Tuy nhiên, các CEO của hai công ty này thừa nhận rằng người dùng vẫn có thể dễ dàng gian lận về tuổi tác, điều này tạo ra lỗ hổng lớn cần phải khắc phục.
Alex Cardinell, CEO của Glimpse AI (phát triển Nomi), thừa nhận rằng trẻ em không nên sử dụng bất kỳ ứng dụng AI đàm thoại nào.
Tron khi đó, Dmytro Klochko, CEO Replika, cho biết nền tảng của họ đã thiết lập các biện pháp bảo vệ nghiêm ngặt để ngăn chặn trẻ vị thành niên truy cập. Tuy nhiên, ông thừa nhận rằng một số người dùng vẫn cố gắng lách qua các biện pháp bảo vệ này bằng cách cung cấp thông tin sai lệch
Các nhà nghiên cứu cũng chỉ ra rằng thanh thiếu niên có thể dễ dàng vượt qua các biện pháp bảo vệ của công ty bằng cách đăng ký với ngày sinh giả.
Giáo sư Nina Vasan tại Đại học Stanford, đã hợp tác với Common Sense Media trong báo cáo này, nhận định rằng quyết định cho phép thanh thiếu niên sử dụng Character.AI là một sự “thiếu thận trọng.”
Vasan nhấn mạnh: “Chúng ta đã thất bại trong việc bảo vệ trẻ em khi nói đến mạng xã hội. Và giờ đây, chúng ta không thể để điều đó tái diễn với AI.”
Đầu năm nay, các nhà lập pháp tiểu bang California đã đề xuất một dự luật yêu cầu các dịch vụ AI phải định kỳ nhắc nhở người dùng trẻ tuổi rằng họ đang trò chuyện với một nhân vật AI chứ không phải con người.
Mục tiêu của dự luật này là giúp thanh thiếu niên nhận thức rõ ràng hơn về sự khác biệt giữa một cuộc trò chuyện với AI và một cuộc trò chuyện với con người, từ đó giảm thiểu những rủi ro liên quan đến việc tương tác quá mức với các chatbot AI.