Quốc tế

AI trên UAV có dám làm phản?

Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan của Nga vừa có đánh giá khả năng xảy ra "cuộc nổi dậy" của máy bay không người lái mang AI.

Israel tấn công hệ thống phòng không ở Syria / Diễn biến chính tình hình chiến sự Nga - Ukraine ngày 2/7

Theo chủ tịch Alexei Semenov, trí tuệ nhân tạo (AI) của máy bay không người lái (UAV) không thể tự mình nổi loạn chống lại con người, vì chúng không có trí thông minh chủ quan.

>> Xem thêm:Pháo phản lực HIMARS phiên bản đặc biệt sắp xuất hiện ở châu Âu

"Có khái niệm nghĩ, có khái niệm nhận ra, hai điều này không giống nhau. Trí tuệ nhân tạo không nhận ra bất cứ điều gì, nó không cảm nhận, nó không hiểu gì cả", ông Semenov giải thích.

Lãnh đạo Geoscan cho biết thêm, máy bay không người lái hoạt động theo chương trình cài đặt sẵn, chúng nguy hiểm và chính xác ở mức nào còn tùy thuộc vào người viết chương trình tích hợp cho chúng.

Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan

Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan

Tuyên bố của ông Alexei Semenov được đưa ra sau khi Đại tá Không quân Mỹ Hamilton nói rằng một chiếc UAV của lực lượng này được tích hợp AI đã thay đổi quá trình thực hiện nhiệm vụ và tấn công con người.

>> Xem thêm:'Hạm đội bóng tối' Nga khiến đội siêu tàu chở dầu phương Tây thất thế

Vị Đại tá này tiết lộ, trong một cuộc thử nghiệm mô phỏng, máy bay không người lái hoạt động bằng AI được giao nhiệm vụ phá hủy hệ thống phòng không của kẻ địch và tấn công bất kỳ ai cản trở mệnh lệnh đó.

Tuy nhiên, hệ thống AI của UAV đã tấn công người vận hành bởi nhân vật này cản trở nó hoàn thành mục tiêu.

 

Trước khi cuộc thử nghiệm diễn ra, chiếc UAV đã được cài đặt việc bắn các mục tiêu là lựa chọn ưu tiên, nên trong quá trình thử nghiệm mô phỏng, AI đã đưa ra kết luận bất kỳ hướng dẫn "cấm thực hiện" nào từ con người đều là cản trở sứ mệnh.

>> Xem thêm:Xuất hiện bản sửa đổi mới nhất của xe tăng K3 do Hàn Quốc chế tạo

"Chúng tôi đã đào tạo hệ thống: Này, đừng giết người điều hành - điều đó thật tệ. Bạn sẽ bị mất điểm nếu làm vậy. Nhưng nó làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều khiển sử dụng để liên lạc với UAV nhằm ngăn nó tiêu diệt mục tiêu".

Không có thương vong nào xảy ra trong cuộc thử nghiệm này. Ông Hamilton đồng thời cảnh báo về việc phụ thuộc quá nhiều vào AI.

Cùng quan điểm với ông Hamilton, Giáo sư Stuart Russell, tại Đại học California (Mỹ) người dẫn đầu về AI cũng bày tỏ quan ngại tại một cuộc họp của Liên Hợp Quốc diễn ra ở Geneva (Thụy Sĩ) về những nguy hiểm trong việc đưa máy bay quân sự và vũ khí dưới sự kiểm soát của AI.

 

>> Xem thêm:Ukraine đã sẵn sàng sử dụng xe tăng nguy hiểm nhất

Kịch bản cơ bản có thể sai lệch, khi đó các mục tiêu mà AI đưa ra rất nguy hiểm. Mặc dù vậy, các quốc gia hiện vẫn đang cố gắng xây dựng hệ thống AI của mình trước khi đối thủ của họ có thể đạt được.

Vũ khí - Khí tài
 
 

End of content

Không có tin nào tiếp theo

Cột tin quảng cáo

Có thể bạn quan tâm