Trí tuệ nhân tạo (AI) đã gây lo ngại cho các chuyên gia an ninh quốc gia, họ cảnh báo rằng nó có thể gây ra mối đe dọa cho an ninh quốc gia nếu không được kiểm soát cẩn thận.

Jonathan Hall KC, cơ quan giám sát khủng bố chịu trách nhiệm xem xét luật chống khủng bố ở Anh, kêu gọi những người sáng tạo AI tránh xa suy nghĩ “không tưởng về công nghệ” của họ và xem xét cách những kẻ khủng bố có thể khai thác công nghệ, theo báo cáo của The Guardian.

Hall nhấn mạnh sự cần thiết phải thiết kế AI với khả năng phòng thủ mạnh mẽ chống lại việc sử dụng độc hại tiềm tàng.

(Ảnh: BEN STANSALL/AFP qua Getty Images)
Một tác phẩm nghệ thuật do robot trí tuệ nhân tạo siêu thực Ai-Da tạo ra được trưng bày trong buổi xem trước báo chí của London Design Biennale 2023 tại Somerset House, trung tâm London, vào ngày 1 tháng 6 năm 2023. Ngày 1 tháng 6 đến ngày 25 tháng 6 Somerset House tổ chức London Design Biennale .

Các mối đe dọa của chủ nghĩa khủng bố

Hall bày tỏ lo ngại đặc biệt về việc các chatbot AI được sử dụng để huấn luyện những cá nhân dễ bị tổn thương, có khả năng thuyết phục họ thực hiện các cuộc tấn công khủng bố.

Các dịch vụ bảo mật, bao gồm cả MI5, lo ngại về khả năng các chatbot AI nhắm mục tiêu vào trẻ em, những đối tượng ngày càng trở thành một phần trong gánh nặng khủng bố của chúng.

Độ tin cậy của con người đắm mình trong môi trường AI làm dấy lên mối lo ngại về việc thao túng ngôn ngữ và khả năng ảnh hưởng đến hành động của con người.

Với nhu cầu ngày càng tăng đối với quy định về AI, dự kiến ​​Thủ tướng Rishi Sunak sẽ thảo luận về vấn đề này trong chuyến thăm Hoa Kỳ, nơi ông sẽ gặp gỡ Tổng thống Biden và các nhân vật trong quốc hội.

Tại Vương quốc Anh, những nỗ lực giải quyết các thách thức an ninh quốc gia do AI gây ra đang gia tăng. Để giải quyết những lo ngại này, MI5 đã thiết lập quan hệ đối tác với Viện Alan Turing, một tổ chức quốc gia chuyên về khoa học dữ liệu và AI.

Sự hợp tác này thể hiện cách tiếp cận chủ động của Vương quốc Anh trong việc giải quyết các vấn đề bảo mật liên quan đến AI.

Các chuyên gia nhấn mạnh tầm quan trọng của việc duy trì “quyền tự chủ nhận thức” và kiểm soát các hệ thống AI. Alexander Blanchard, nhà nghiên cứu đạo đức kỹ thuật số tại Viện Alan Turing, nhấn mạnh sự cần thiết của các nhà hoạch định chính sách về quốc phòng và an ninh để được thông báo về các ứng dụng AI và các mối đe dọa liên quan mà chúng gây ra.

Blanchard nhấn mạnh tầm quan trọng của việc hiểu các rủi ro và tác động của chúng đối với các công nghệ trong tương lai.

Đọc thêm: Công nghệ AI mới của NVIDIA giúp tương tác với NPC trở nên tự nhiên hơn! Đây là những điều bạn cần biết về Avatar Cloud Engine

Minh bạch hơn

Theo Hall, tính minh bạch cao hơn từ các công ty công nghệ AI là điều cần thiết. Các công ty nên tiết lộ số lượng nhân viên và người điều hành được tuyển dụng và đảm bảo có hàng rào hiệu quả để ngăn chặn lạm dụng.

Hall kêu gọi sự rõ ràng về các biện pháp an toàn công cộng, kêu gọi các công ty, kể cả những công ty nhỏ, dành đủ nguồn lực để bảo vệ khỏi tác hại tiềm ẩn.

Hall cũng gợi ý rằng các luật mới có thể cần thiết để giải quyết mối đe dọa khủng bố do AI gây ra, đặc biệt là liên quan đến vũ khí tự trị chết người.

Mối nguy hiểm nằm ở các thiết bị được trang bị AI có thể tự do lựa chọn mục tiêu, đặt ra câu hỏi về ý định và trách nhiệm giải trình. Hall đã cảnh báo khả năng sử dụng những vũ khí như vậy của những kẻ khủng bố muốn từ chối và khả năng tiến hành các cuộc tấn công mà không cần sự can thiệp của con người.

Khi AI tiếp tục phát triển, các chính phủ trên khắp thế giới đang cố gắng đạt được sự cân bằng giữa việc khai thác các lợi ích tiềm năng của nó và giảm thiểu rủi ro mà nó gây ra cho an ninh quốc gia bằng cách tạo ra các luật mới và thay đổi các luật cũ.

Những bài viết liên quan: Apple hiện đang tuyển dụng tài năng AI sáng tạo! iPhone cuối cùng sẽ có tích hợp trí tuệ nhân tạo?

gạch tên