Đề xuất chỉ siết chặt AI có rủi ro cao, tránh cản trở đổi mới sáng tạo
Giải mã nguyên nhân đôi khi mặt trăng xuất hiện trên bầu trời ban ngày / Sắp diễn ra diễn đàn Đổi mới sáng tạo và đầu tư Đà Nẵng 2025
Ngày 9/5, các đại biểu Quốc hội đã thảo luận tại hội trường về một số nội dung còn ý kiến khác nhau của dự thảo Luật Công nghiệp công nghệ số. Trong đó, các quy định liên quan đến trí tuệ nhân tạo (AI) tiếp tục nhận được nhiều góp ý nhằm bảo đảm tính khả thi và phù hợp với thông lệ quốc tế.
Góp ý tại phiên thảo luận, đại biểu Đỗ Ngọc Thịnh (đoàn Khánh Hòa) cho rằng, định nghĩa về AI tại khoản 10, Điều 3 của dự thảo luật hiện chưa phản ánh đúng bản chất công nghệ và chưa phù hợp với cách tiếp cận quốc tế.
Ông đề xuất tham khảo định nghĩa của Tổ chức Hợp tác và Phát triển Kinh tế (OECD), vốn đã được nhiều quốc gia và Liên minh châu Âu áp dụng. Theo đó, AI nên được hiểu là "hệ thống dựa trên máy móc nhằm đạt được mục tiêu rõ ràng hoặc ngầm định bằng cách suy luận từ dữ liệu đầu vào để tạo ra đầu ra dưới dạng dự đoán, đề xuất hoặc quyết định ảnh hưởng đến môi trường vật lý hoặc ảo".

Đại biểu Thịnh nhấn mạnh, việc đưa ra một định nghĩa phù hợp là cơ sở quan trọng để xây dựng các quy định quản lý hiệu quả, đồng thời tạo thuận lợi cho việc áp dụng công nghệ trong thực tiễn.
Về phân loại hệ thống trí tuệ nhân tạo (Điều 46), đại biểu đoàn Khánh Hoà đánh giá, quy định hiện hành có điểm tương đồng với Đạo luật AI của EU nhưng cũng tồn tại những điểm chưa rõ ràng. Theo EU, AI được phân loại chủ yếu theo mức độ rủi ro, từ "không chấp nhận được" đến "tối thiểu". Tuy nhiên, dự thảo của Việt Nam lại bổ sung thêm nhóm "hệ thống AI có tác động lớn", điều này có thể gây chồng lấn hoặc mâu thuẫn với nhóm "rủi ro cao".
"Việc phân loại này nếu không gắn kết với các quy định về trách nhiệm cụ thể trong các điều khoản khác thì sẽ khó triển khai và thiếu tính thống nhất", ông Thịnh nêu. Đồng thời, đề nghị làm rõ triết lý phân loại và bảo đảm các quy định chỉ áp dụng cho hệ thống AI có rủi ro cao, tránh siết chặt không cần thiết với các hệ thống có rủi ro thấp, qua đó hỗ trợ đổi mới sáng tạo và khai thác hiệu quả tiềm năng của công nghệ.
Cùng quan điểm về sự chưa rõ ràng trong quy định, đại biểu Lê Thị Thanh Lam (đoàn Hậu Giang) nhận xét định nghĩa hệ thống AI rủi ro cao tại khoản 1 Điều 46 còn chung chung, chưa đưa ra được các tiêu chí cụ thể như mức độ tác động, số lượng người dùng, hay dung lượng dữ liệu để xác định rủi ro. "Nếu thiếu tiêu chí cụ thể, rất khó để triển khai trong thực tế", bà Lam nói.
Bà Lam cũng lưu ý việc quy định quá chi tiết về công nghệ có thể không cần thiết, thay vào đó nên tập trung vào quản lý hành vi sử dụng công nghệ. Đặc biệt, khi nói đến trách nhiệm của nhà phát triển AI tại Điều 48, bà cho rằng một số nghĩa vụ đang đặt gánh nặng quá lớn cho chủ thể này, nhất là trong bối cảnh công nghệ mã nguồn mở.
Còn đại biểu Lưu Bá Mạc (đoàn Lạng Sơn) đề xuất cần bổ sung quy định yêu cầu các hệ thống AI có mức độ rủi ro cao hoặc có tác động lớn đến xã hội phải được kiểm định, thẩm định bởi tổ chức độc lập do Nhà nước chỉ định hoặc công nhận trước khi đưa vào sử dụng.

Hiện tại, Điều 44 của dự thảo luật chỉ nêu ra 6 nguyên tắc phát triển và sử dụng AI, đồng thời giao các bộ, ngành hướng dẫn thực hiện. Còn Điều 46 có đề cập đến việc quản lý các hệ thống AI (bao gồm cả hệ thống rủi ro cao và có tác động lớn), nhưng chưa quy định rõ cơ chế kiểm định độc lập trước khi triển khai.
Mặc dù khoản 5 Điều 46 có nói sẽ để Chính phủ quy định chi tiết, nhưng theo ông Mạc, nên có một nguyên tắc rõ ràng ngay trong luật về việc kiểm định độc lập, nhằm tăng tính minh bạch, hiệu quả quản lý nhà nước và tạo sự an tâm cho người dân, doanh nghiệp khi sử dụng AI, nhất là trong bối cảnh chuyển đổi số hiện nay.
Về khoản 1 Điều 47, dự thảo quy định rằng hệ thống AI tương tác trực tiếp với con người phải thông báo cho người dùng biết, trừ khi người dùng "hiển nhiên biết" là đang tương tác với AI.
Theo đại biểu đoàn Lạng Sơn, cách diễn đạt này chưa rõ ràng vì "hiển nhiên biết" là khái niệm mang tính chủ quan, phụ thuộc vào trình độ, kinh nghiệm, hoàn cảnh của mỗi người. Người am hiểu công nghệ thì dễ nhận ra AI nhưng người cao tuổi, không rành công nghệ thì không. Theo đó, có thể xảy ra tình trạng lợi dụng cách diễn đạt này để che giấu bản chất AI, gây thiệt hại cho người dùng.
Vì vậy, ông Mạc đề xuất sửa lại quy định theo hướng: hệ thống AI tương tác với con người phải thông báo rõ ràng, dễ hiểu cho người dùng biết đang tương tác với AI. Thông báo này cần được bật mặc định, không được tự động ẩn hoặc tắt, trừ khi người dùng chủ động lựa chọn tắt.
End of content
Không có tin nào tiếp theo
Xem nhiều nhất

Đà Nẵng và Vingroup hợp tác thúc đẩy phát triển khoa học công nghệ
Đột phá theo Nghị quyết số 57: Thái Bình thí điểm ứng dụng công dân số
Đà Nẵng cam kết đồng hành phát triển AI toàn diện, bền vững
Đề xuất chỉ siết chặt AI có rủi ro cao, tránh cản trở đổi mới sáng tạo
FPT sắp đưa 300 lãnh đạo doanh nghiệp công nghệ hàng đầu thế giới đến Đà Nẵng