Google giới thiệu kế hoạch bảo mật mới với trí tuệ nhân tạo.

Google đã ra mắt Khung AI an toàn (SAIF) để cải thiện tính bảo mật của các hệ thống trí tuệ nhân tạo (AI). Với việc các tổ chức ngày càng sử dụng công nghệ AI, Google đặt mục tiêu đảm bảo rằng các biện pháp kiểm soát bảo mật cơ bản được áp dụng để bảo vệ chống lại các lỗ hổng và các cuộc tấn công độc hại có thể xảy ra. Khung AI an toàn của Google bao gồm sáu ý tưởng cốt lõi để cải thiện tính bảo mật của các hệ thống AI, bao gồm mở rộng các biện pháp kiểm soát bảo mật hiện có và áp dụng tự động hóa trong phòng thủ mạng để phản ứng nhanh với hoạt động bất thường. Google cũng tìm kiếm phản hồi về khuôn khổ từ các đối tác trong ngành và các cơ quan chính phủ để cải thiện các biện pháp bảo mật của mình. Khung AI an toàn của Google nhằm mục đích cung cấp cho các tổ chức một lộ trình toàn diện để bảo vệ hệ thống AI của họ khỏi các mối đe dọa tiềm ẩn.
Google đã giới thiệu một khung khái niệm mới, Khung AI an toàn (SAIF), để tăng cường bảo mật cho các hệ thống trí tuệ nhân tạo (AI).
Báo cáo của Axios cho chúng tôi biết rằng khuôn khổ giải quyết mối lo ngại ngày càng tăng về các mối đe dọa mạng nhắm vào các mô hình AI và dữ liệu mà chúng dựa vào.
Với việc các tổ chức nhanh chóng áp dụng công nghệ AI, Google đặt mục tiêu đảm bảo rằng các biện pháp kiểm soát bảo mật cơ bản được áp dụng để bảo vệ chống lại các lỗ hổng và các cuộc tấn công độc hại có thể xảy ra.
Thúc đẩy các hệ thống AI an toàn hơn
Sự trỗi dậy của các công nghệ mới nổi thường dẫn đến việc bỏ qua an ninh mạng và quyền riêng tư dữ liệu, như đã chứng kiến với các nền tảng truyền thông xã hội.
Người dùng háo hức nắm lấy các nền tảng này mà không xem xét đầy đủ cách dữ liệu của họ được thu thập, chia sẻ và bảo vệ.
Tương tự như vậy, Google lo ngại rằng sự giám sát tương tự đang xảy ra với các hệ thống AI, khi các công ty tích hợp các mô hình này vào quy trình làm việc của họ mà không ưu tiên các biện pháp bảo mật.
Phil Venables, Giám đốc An ninh Thông tin tại Google Cloud, nhấn mạnh tầm quan trọng của các yếu tố bảo mật cơ bản.
“Chúng tôi muốn mọi người nhớ rằng rất nhiều rủi ro AI có thể được quản lý bằng một số yếu tố cơ bản này,” Venables nói với Axios.
Đọc thêm: Google Drive kết thúc hỗ trợ cho các ứng dụng dành cho máy tính để bàn chạy Windows 8 & 8.1: Đã đến lúc nâng cấp
Khung AI của Google
Khung AI an toàn do Google đề xuất khuyến khích các tổ chức triển khai sáu ý tưởng cốt lõi để cải thiện tính bảo mật của các hệ thống AI.
Điều này bao gồm việc mở rộng các biện pháp kiểm soát bảo mật hiện có sang các hệ thống AI mới thông qua các biện pháp như:
- Mã hóa dữ liệu.
- Mở rộng nghiên cứu tình báo về mối đe dọa để bao gồm các mối đe dọa dành riêng cho AI.
- Áp dụng tự động hóa trong phòng thủ mạng để phản ứng nhanh với hoạt động bất thường.
- Tiến hành kiểm tra bảo mật thường xuyên cho các mô hình AI.
- Liên tục thử nghiệm các hệ thống AI thông qua thử nghiệm thâm nhập.
- Thành lập nhóm nhận thức rủi ro AI để giảm rủi ro kinh doanh.
Venables của Google lưu ý rằng việc quản lý bảo mật AI cộng hưởng với việc quản lý quyền truy cập dữ liệu, làm nổi bật nhu cầu về cách tiếp cận toàn diện và tích hợp.
Cái gì tiếp theo?
Để khuyến khích việc sử dụng các nguyên tắc này, Google có kế hoạch hợp tác với các khách hàng và chính phủ của mình để sử dụng Khung AI an toàn.
Ngoài ra, công ty đã mở rộng chương trình tiền thưởng lỗi của mình để bao gồm các lỗ hổng bảo mật liên quan đến AI, thể hiện rõ hơn cam kết của mình trong việc thúc đẩy các hệ thống AI an toàn.
Google cũng đã tìm kiếm phản hồi về khuôn khổ từ các đối tác trong ngành và các cơ quan chính phủ, những cơ quan đã công nhận giá trị của đầu vào bên ngoài trong việc cải thiện các biện pháp bảo mật của mình.
“Chúng tôi nghĩ rằng chúng tôi khá tiến bộ về chủ đề này trong lịch sử của mình, nhưng chúng tôi không tự phụ đến mức cho rằng mọi người không thể đưa ra đề xuất cải tiến cho chúng tôi,” Venables nói.
Mối đe dọa ngày càng tăng của AI
Trong những tháng gần đây, chúng tôi đã chia sẻ nhiều báo cáo về việc lạm dụng AI cho các mục đích xấu. Thật không may, bọn tội phạm đã bắt đầu sử dụng công nghệ này để lừa đảo. Các chuyên gia cũng cảnh báo rằng AI cũng có thể hỗ trợ những tác nhân độc hại này tạo ra phần mềm độc hại mạnh mẽ.
Khi công nghệ AI tiếp tục phát triển, một chiến lược quản lý rủi ro mạnh mẽ phải theo kịp tiến độ. Khung AI an toàn của Google nhằm mục đích cung cấp cho các tổ chức một lộ trình toàn diện để bảo vệ hệ thống AI của họ khỏi các mối đe dọa tiềm ẩn.
Vẫn được đăng ở đây tại Tech Times.
Những bài viết liên quan: Google cho biết Bard AI Chatbot đang trở nên tốt hơn về toán học, lập trình