Khoa học - Công nghệ

Không tuân thủ dán nhãn, AI tạo sinh có thể bị xếp vào loại rủi ro cao

DNVN - Tại buổi họp báo gần đây, ông Trần Văn Sơn - Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia, Bộ Khoa học và Công nghệ (KH&CN) khẳng định: Dù đa số các hệ thống AI tạo sinh hiện được xếp vào nhóm rủi ro trung bình, nhưng nếu không đáp ứng các yêu cầu kỹ thuật, chúng sẽ bị nâng lên mức rủi ro cao.

Luật AI và Luật Chuyển đổi số giúp tăng cường lợi thế cạnh tranh quốc gia / Hạ tầng AI tương lai: Trung tâm dữ liệu ngoài không gian

Ông Trần Văn Sơn - Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia phát biểu tại họp báo thường kỳ tháng 1/2026 của Bộ Khoa học và Công nghệ ngày 29/1.
Ông Trần Văn Sơn - Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia phát biểu tại họp báo thường kỳ tháng 1/2026 của Bộ Khoa học và Công nghệ ngày 29/1.

Vi phạm quy định dán nhãn sẽ bị nâng mức rủi ro

Vấn đề quản lý AI tạo sinh nóng lên sau khi báo giới đặt câu hỏi về trường hợp chatbot Grok của Elon Musk gần đây bị cấm tại một số quốc gia như Indonesia và Malaysia do liên quan đến việc tạo hình ảnh khiêu dâm trẻ em và phụ nữ. Trả lời câu hỏi về việc cơ quan quản lý Việt Nam sẽ xếp loại Grok vào nhóm rủi ro nào theo Luật Trí tuệ nhân tạo (AI) mới, ông Trần Văn Sơn cho biết việc phân loại dựa trên các tiêu chí cụ thể của luật.

Theo đó, đối với hệ thống như Grok, căn cứ vào các tiêu chí phân loại, đa số các hệ thống trí tuệ nhân tạo tạo sinh cơ bản được xếp vào nhóm rủi ro trung bình. Lý do được đưa ra là các hệ thống này có khả năng tạo ra các nội dung gây nhầm lẫn hoặc tác động đến người sử dụng.

Tuy nhiên, mức "rủi ro trung bình" không phải là tấm kim bài miễn tử. Luật quy định nghiêm cấm các hình thức sử dụng Deepfake để lừa đảo hoặc vi phạm pháp luật. Đặc biệt, đại diện Bộ KH&CN nhấn mạnh các hệ thống AI tạo sinh bắt buộc phải tuân thủ các nghĩa vụ kỹ thuật nghiêm ngặt như phải dán nhãn thông báo đối với các nội dung được tạo ra hoặc chỉnh sửa bởi AI hoặc phải có giải pháp ký hiệu nhận dạng đối với sản phẩm do AI tạo ra để phục vụ công tác quản lý và truy vết.

"Nếu hệ thống không đáp ứng các yêu cầu kiểm soát rủi ro nêu trên, cơ quan quản lý nhà nước có căn cứ xếp loại rủi ro cao để áp dụng các biện pháp quản lý chặt chẽ" - ông Trần Văn Sơn cảnh báo.

Khi bị xếp vào nhóm rủi ro cao, các hệ thống này sẽ phải chịu sự giám sát gắt gao hơn, bao gồm yêu cầu lập hồ sơ kỹ thuật, chịu sự giám sát bởi con người và phải thực hiện các nghĩa vụ minh bạch.

Chế tài xử lý: Từ tạm dừng hoạt động đến xử lý hình sự

Bộ Khoa học và Công nghệ được giao là cơ quan đầu mối chịu trách nhiệm trước Chính phủ thực hiện quản lý nhà nước về trí tuệ nhân tạo, chủ trì hướng dẫn quy trình phân loại rủi ro.

Khi xảy ra sự cố nghiêm trọng hoặc phát hiện hệ thống có nguy cơ gây hại, cơ quan quản lý nhà nước có thẩm quyền yêu cầu nhà cung cấp tạm dừng hoạt động, thu hồi hoặc đánh giá lại hệ thống AI.

Đối với các hành vi vi phạm nghiêm trọng như tạo ra ảnh khiêu dâm trẻ em hoặc gây rối trật tự an toàn xã hội, cơ quan quản lý có quyền yêu cầu nhà cung cấp tạm dừng hoặc hạn chế hoạt động. Ngoài ra, tùy theo mức độ vi phạm, các cá nhân và tổ chức liên quan có thể bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự, đồng thời phải bồi thường thiệt hại theo quy định của pháp luật về dân sự.

Hiền Thảo
 

End of content

Không có tin nào tiếp theo

Cột tin quảng cáo

Có thể bạn quan tâm