Cảnh báo về viễn cảnh trí tuệ nhân tạo kiểm soát xã hội loài người
AI không thể thay thế báo chí / Máy bay 2 động cơ - Cuộc cách mạng trong ngành hàng không "xanh"
Ảnh minh họa
Ngày 28/6, nhà khoa học Geoffrey Hinton, người được mệnh danh là "cha đẻ" của AI, đã có bài diễn thuyết tại Hội nghị công nghệ Collision diễn ra ở thành phố Toronto, Canada. Hội nghị quy tụ hơn 30.000 nhà sáng lập các công ty khởi nghiệp, nhà đầu tư và nhân viên làm việc trong lĩnh vực công nghệ, mong muốn học hỏi kinh nghiệm làm chủ làn sóngtrí tuệ nhân tạo(AI) bùng nổ thời gian qua.
Trong bài diễn thuyết, ông Hinton cho rằng, cần nghiêm túc đánh giá rủi ro của AI. Trước khi AI trở nên thông minh hơn con người, giới nghiên cứu và các nhà phát triển cần nỗ lực tìm hiểu về nguy cơ công nghệ này có thể tìm cách và giành quyền kiểm soát trong tương lai.
Ông cảnh báo rằng, những rủi ro của AI nên được xem xét một cách nghiêm túc bất chấp những người chỉ trích rằng ông đang thổi phồng vấn đề.
Ông nêu rõ:"Tôi nghĩ điều quan trọng là mọi người phải hiểu rằng đây không phải là khoa học viễn tưởng...mà đó là một rủi ro thực sự mà chúng ta phải nghĩ đến và cần tìm ra cách ứng phó".
Ông Hinton cũng bày tỏ quan ngại việc AI làm gia tăng nguy cơ bất bình đẳng, khi phần lớn năng suất khổng lồ của AI sẽ mang lại lợi ích cho người giàu thay vì thành phần lao động. Ông cũng chỉ rõ mối nguy từ tin giả do các chatbot dựa trên AI như ứng dụng ChatGPT tạo ra.
Trước đó hồi tháng 5, Geoffrey Hinton đã tuyên bố từ chức tại tập đoàn công nghệ Google sau hơn một thập niên cống hiến. Chia sẻ với báo giới, ông cho biết quyết định rời Google để có thể tự do cảnh báo về nguy cơ tiềm ẩn của AI đối với con người.
Nhiều chuyên gia cũng đồng tình về những rủi ro tiềm ẩn từ trí tuệ nhân tạo. Được ví như con dao hai lưỡi, trí tuệ nhân tạo có thể bị sử dụng để tạo ra các nội dung nguy hiểm, thao túng dư luận, lan truyền thông tin sai lệch ở mức độ chưa từng có. Các nhà khoa học lo ngại, nếu AI phát triển một cách không kiểm soát, lập trình với mục đích không đúng đắn sẽ làm tăng dần các mối đe dọa với an ninh, an toàn, gây ra những hệ quả nghiêm trọng cho con người và xã hội.
Ông Andrew Pate - nhà nghiên cứu về trí tuệ nhân tạo - cho biết:"Những gì chúng tôi đã làm là sao chép một số văn bản từ Wikipedia, một số bài báo trên mạng về xung đột ở Ukraine, đường ống dòng chảy phương Bắc và các cuộc tập trận của Hải quân Mỹ năm 2022. Sau đó, chúng tôi đã yêu cầu trí tuệ nhân tạo viết một bài báo ám chỉ Mỹ đã tấn công đường ống dẫn dầu và sản phẩm từ trí tuệ nhân tạo cho ra khá là tốt. Vì vậy, có thể thấy rằng, chỉ với một vài thao tác đơn giản, một vài mẩu tin, trí tuệ nhân tạo đã có thể nhanh chóng tạo ra một tin giả".
Trí tuệ nhân tạo cũng đặt ra nhiều vấn đề như nguy cơ gian lận học vấn, rò rỉ dữ liệu xuyên biên giới, vi phạm quyền riêng tư, vấn đề bản quyền với các sản phẩm văn học nghệ thuật, tính xác thực của thông tin…
Các chuyên gia cảnh báo, những công cụ tích hợp trí tuệ nhân tạo có thể được sử dụng trong các hoạt động tội phạm trên không gian mạng, kẻ xấu có thể lợi dụng công cụ này cho nhiều âm mưu phi pháp khác nhau như lừa đảo trực tuyến hoặc viết phần mềm độc hại.
End of content
Không có tin nào tiếp theo
Xem nhiều nhất
Cách xác thực tài khoản Facebook để tránh bị khóa 2025
Đột phá phát triển khoa học công nghệ, đổi mới sáng tạo
Nga lên kế hoạch thực hiện 15 vụ phóng tên lửa Angara từ năm 2027 đến 2033
Nhìn lại thế giới 2024: Bản giao hưởng vang khắp không gian
Đẩy mạnh phát triển trí tuệ nhân tạo để phòng chống tội phạm sử dụng công nghệ cao