Phát biểu tại một hội nghị LHQ ở TP Geneva (Thụy Sĩ) về vấn đề đạo đức xoay quanh các hệ thống vũ khí không người lái, phái đoàn Nga cho rằng những hệ thống này cần tuân thủ các “quy tắc về sự cần thiết và tương xứng” tương tự binh sĩ.

Hội nghị trên, diễn ra đến ngày 13-8 với sự tham gia của các nhà ngoại giao đến từ 50 quốc gia, hy vọng thiết lập những quy định mới nhằm ngăn chặn “robot sát thủ” tự đưa ra quyết định.

Hiện chưa đủ “lý do thuyết phục để ban bố những hạn chế hay cấm đoán mới” đối với những vũ khí như vậy, phái đoàn Nga khẳng định.

“Mức độ tự động cao của những hệ thống này cho phép chúng vận hành trong một tình huống xung đột cao, cũng như trong nhiều môi trường khác nhau mà vẫn duy trì được độ chọn lọc và chính xác phù hợp. Điều này đảm bảo chúng tuân thủ những quy tắc hiện hành về nhân đạo toàn cầu” – phái đoàn Nga nói thêm.

Ảnh chụp một hệ thống vũ khí không người lái chuẩn bị được triển khai tại đảo Síp (Cyrus). Ảnh: The Telegraph

Tuy nhiên, theo báo The Telegrahp, lập luận này không được những phái đoàn khác ủng hộ, trong đó có Mỹ.

Ông Neil Davison, cố vấn khoa học và chính sách của Ủy ban Chữ thập đỏ Quốc tế (ICRC), khẳng định các hệ thống tự động nguy hiểm vì “người sử dụng không thực sự chọn mục tiêu, thời điểm và vị trí để chúng tấn công”. Theo ông Davison, điều này gây ra rủi ro đối với dân thường và có thể dẫn đến nguy cơ “leo thang xung đột”.

“Quan điểm của chúng tôi là một thuật toán không nên quyết định ai sống hoặc chết” – vị này nhấn mạnh.

Các hệ thống vũ khí tự động sử dụng trí tuệ nhân tạo (AI) bao gồm thiết bị không người lái có thể vận hành trên không, trên đất liền, trên và dưới bề mặt nước.

Những người ủng hộ lập luận rằng chúng giúp giảm thiểu rủi ro đối với tính mạng con người bằng cách thay thế binh sĩ ở những tình huống nguy hiểm. Tuy nhiên, phe phản đối cho rằng đến một lúc nào đó, con người sẽ bị gạt ra khỏi quá trình ra quyết định về thời điểm khai hỏa.


Cao Lực

Chia sẻ