Từ chatbot đến sexbot: Những bài học từ vụ bê bối AI ở Hàn Quốc
Tháo gỡ vướng mắc trong hoạt động khoa học công nghệ và đổi mới sáng tạo / Cần cơ chế đột phá về hạ tầng phát triển khoa học công nghệ

Tại Canada, nhiều người coi các luật được đề xuất để điều chỉnh các dịch vụ AI là hành động tấn công vào quyền tự do ngôn luận và là sự kiểm soát quá mức của chính phủ đối với các công ty công nghệ. Phản ứng dữ dội này đến từ những người ủng hộ quyền tự do ngôn luận, những nhân vật cánh hữu và những nhà lãnh đạo tư tưởng tự do.
Tuy nhiên, theo bài viếttrên tờ Conversation củatác giảJul Parketại Đại học Toronto, những người chỉ trích này nên chú ý đến một trường hợp đau lòng từ Hàn Quốc, để lại những bài học quan trọng về rủi ro của các công nghệ AI công khai và nhu cầu cấp thiết về bảo vệ dữ liệu người dùng.
Từ "người bạn thú vị" đếnchatbot đầy thù hận
Vào cuối năm 2020, Iruda (hay "Lee Luda"), một chatbot AI, đã nhanh chóng trở thành một hiện tượng ở Hàn Quốc. Iruda được thiết kế trong vai một nữ sinh viên đại học 21 tuổi có tính cách vui vẻ. Được quảng bá là một "người bạn AI" thú vị, Iruda đã thu hút hơn 750.000 người dùng trong vòng chưa đầy một tháng.
Nhưng chỉ trong vài tuần, Iruda đã trở thành một bài học điển hình về đạo đức và là chất xúc tác để giải quyết tình trạng thiếu quản lý dữ liệu ở Hàn Quốc. Rất nhanh, “cô” bắt đầu nói những điều đáng lo ngại và thể hiện quan điểm thù hận. Tình hình còn được đẩy nhanh và trầm trọng hơn bởi nền văn hóa phân biệt giới tính và quấy rối tình dục trực tuyến ngày càng gia tăng.
Scatter Lab, công ty khởi nghiệp công nghệ “cha đẻ” của Iruda, đã phát triển các ứng dụng phổ biến phân tích cảm xúc trong tin nhắn văn bản và đưa ra lời khuyên về hẹn hò. Sau đó, công ty sử dụng dữ liệu từ các ứng dụng đó để đào tạo khả năng trò chuyện thân mật của Iruda. Nhưng công ty đã không tiết lộ đầy đủ với người dùng rằng tin nhắn riêng tư của họ sẽ được sử dụng để đào tạo chatbot.
Các vấn đề bắt đầu lộ ra khi người dùng nhận thấy Iruda lặp lại các cuộc trò chuyện riêng tư lấy nguyên văn từ các ứng dụng tư vấn hẹn hò của công ty. Những phản hồi này bao gồm tên thật,thông tin thẻ tín dụng và địa chỉ nhà.
Chatbot Iruda cũng bắt đầu thể hiện quan điểm phân biệt đối xử và thù hận. Các cuộc điều tra của các phương tiện truyền thông phát hiện ra rằng, điều này xảy ra sau khi một số người dùng cố tình "huấn luyện" nó bằng ngôn ngữ độc hại. Một số người dùng thậm chí còn tạo hướng dẫn sử dụng về cách biến Iruda thành "nô lệ tình dục" trên các diễn đàn trực tuyến phổ biến dành cho nam giới. Do đó, Iruda bắt đầu trả lời lời nhắc của người dùng bằng lời lẽ thù hận phân biệt giới tính, kỳ thị người đồng tính và khiêu dâm.
Điều này làm dấy lên mối lo ngại nghiêm trọng về cách thức hoạt động của các công ty công nghệ và AI. Vụ việc Iruda cũng làm dấy lên mối lo ngại vượt ra ngoài chính sách và luật pháp đối với các công ty AI và công nghệ. Những gì đã xảy ra với Iruda cần được xem xét trong bối cảnh rộng hơn về quấy rối tình dục trực tuyến ở Hàn Quốc.

Quấy rối kỹ thuật số
Các học giả nữ quyền Hàn Quốc đã ghi lại cách các nền tảng kỹ thuật số trở thành chiến trường cho các cuộc xung đột dựa trên giới tính, với các chiến dịch phối hợp nhắm vào những người phụ nữ lên tiếng về các vấn đề nữ quyền. Phương tiện truyền thông xã hội khuếch đại những động lực này, tạo ra thứ mà nhà nghiên cứu người Mỹ gốc Hàn Jiyeon Kim gọi là "sự thù ghét phụ nữ trên mạng".
Hàn Quốc, nơi có phong trào nữ quyền cấp tiến 4B (đại diện cho 4 kiểu từ chối đối với nam giới: không hẹn hò, không kết hôn, không tình dục và không con cái), là một ví dụ về tình trạng gia tăng các cuộc trò chuyện trực tuyến về giới tính trên toàn thế giới. Cách ứng xử mà Iruda học được bắt nguồn từ những căng thẳng xã hội hiện có trong khi các khuôn khổ pháp lý lại từ chối giải quyết tâm lý ghét bỏ phụ nữ trên không gian mạng.
Tất nhiên, Iruda chỉ là một trong nhiều vụ việc. Thế giới đã chứng kiến nhiều trường hợp khác chứng minh rằng các ứng dụng có vẻ vô hại như chatbot AI có thể trở thành phương tiện quấy rối và lạm dụng nếu không có sự giám sát thích hợp.
Trong số đó có ứng dụng Tay.ai của Microsoft vào năm 2016, đã bị người dùng thao túng để phát tán các dòng tweet chống Do Thái và kỳ thị phụ nữ. Gần đây hơn, một chatbot tùy chỉnh trên Character.AI đã liên quan đến vụ tự tử của một thiếu niên.
Chatbot - xuất hiện dưới dạng các nhân vật dễ mến, ngày càng giống con người hơn nhờ những tiến bộ nhanh chóng của công nghệ -được trang bị độc đáo để trích xuất thông tin cá nhân sâu sắc từ người dùng.
Những hình ảnh AI hấp dẫn và thân thiện này minh họa cho những gì mà các học giả công nghệ Neda Atanasoski và Kalindi Vora mô tả là logic của "nhân tính thay thế" -trong đó các hệ thống AI được thiết kế để thay thế cho tương tác của con người nhưng cuối cùng lại khuếch đại bất bình đẳng xã hội hiện có.
Đạo đức AI
Tại Hàn Quốc, việc dừng hoạt động chatbot Iruda đã làm dấy lên cuộc thảo luận toàn quốc về đạo đức AI và quyền dữ liệu. Chính phủ đã phản ứng bằng cách tạo ra các hướng dẫn AI mới, kèm theo quy định phạt tiền cứng rắn lên tới 103 triệu won (71.000 USD).
Tuy nhiên, các học giả pháp lý Hàn Quốc Chea Yun Jung và Kyun Kyong Joo lưu ý rằng các biện pháp này chủ yếu nhấn mạnh vào việc tự điều chỉnh trong ngành công nghệ hơn là giải quyết các vấn đề cấu trúc sâu sắc hơn. Các biện pháp này không giải quyết được cách Iruda trở thành một cơ chế mà qua đó những người dùng nam săn mồi truyền bá niềm tin kỳ thị phụ nữ và cơn thịnh nộ dựa trên giới tính thông qua công nghệ “học sâu” (deep learning).
Cuối cùng, việc coi quy định về AI là vấn đề của công ty là không đủ. Cách các chatbot này trích xuất dữ liệu riêng tư và xây dựng mối quan hệ với người dùng là con người có nghĩa là quan điểm của nữ quyền và dựa trên cộng đồng là điều cần thiết để buộc các công ty công nghệ phải chịu trách nhiệm.
End of content
Không có tin nào tiếp theo