“Độ tuổi của Trí tuệ Nhân tạo: Các quy định viên quay trở lại Luật cũ để quản lý Công nghệ mới”

Bài viết này đề cập đến việc các cơ quan quản lý đang gặp khó khăn trong việc kiểm soát các công nghệ mới, đặc biệt là trí tuệ nhân tạo (AI) đang phát triển mạnh mẽ. EU đã đi đầu trong việc soạn thảo các quy định mới về AI để giải quyết các mối lo ngại về quyền riêng tư và bảo mật, nhưng việc thực thi luật này dự kiến sẽ mất vài năm. Trong trường hợp không có quy định cụ thể, chính phủ phải sử dụng các quy định hiện hành. Các nỗ lực này nhằm đảm bảo tuân thủ và giải quyết các mối lo ngại tiềm ẩn liên quan đến việc kiểm soát các công nghệ mới như AI.
Sự trỗi dậy của trí tuệ nhân tạo (AI) đã khai sinh ra một kỷ nguyên tiến bộ công nghệ mới, với các chatbot AI như ChatGPT của OpenAI và Google Bard đang trở nên phổ biến.
Khi sự phát triển của các dịch vụ do AI cung cấp ngày càng mạnh mẽ, các cơ quan quản lý đang vật lộn với nhu cầu kiểm soát các công nghệ có khả năng phá vỡ các chuẩn mực xã hội và kinh doanh.
Tuy nhiên, các cơ quan quản lý này đang chuyển sang các luật cũ để quản lý các công nghệ mới, theo báo cáo của Reuters.
Điều hướng các luật hiện hành
Liên minh Châu Âu (EU) đã đi đầu trong việc soạn thảo các quy định mới về AI để giải quyết các mối lo ngại về quyền riêng tư và bảo mật do những tiến bộ nhanh chóng trong công nghệ AI tổng quát, được minh họa bởi ChatGPT của OpenAI. Tuy nhiên, việc thực thi luật này dự kiến sẽ mất vài năm.
Trong trường hợp không có quy định cụ thể, chính phủ phải sử dụng các quy định hiện hành. Massimiliano Cimnaghi, một chuyên gia quản trị dữ liệu châu Âu, đã chỉ ra rằng luật bảo vệ dữ liệu hiện hành được sử dụng để bảo vệ dữ liệu cá nhân trong khi các quy định giải quyết các mối đe dọa đối với an ninh công cộng cũng đang được sử dụng, mặc dù không có định nghĩa rõ ràng về AI.
Các cơ quan quản lý và chuyên gia trong ngành ở Hoa Kỳ và Châu Âu đang nỗ lực thực thi các quy định hiện hành bao gồm nhiều lĩnh vực khác nhau, chẳng hạn như bản quyền, quyền riêng tư dữ liệu cũng như việc xử lý dữ liệu đầu vào và nội dung do các mô hình AI tạo ra.
Những nỗ lực này nhằm đảm bảo tuân thủ và giải quyết các mối lo ngại tiềm ẩn liên quan đến khía cạnh này.
Suresh Venkatasubramanian, cựu cố vấn công nghệ tại Nhà Trắng, nhấn mạnh sự cần thiết của các cơ quan ở cả hai khu vực để diễn giải và diễn giải lại các nhiệm vụ của họ.
Ông đặc biệt chỉ ra cuộc điều tra đang diễn ra của Ủy ban Thương mại Liên bang Hoa Kỳ về các thuật toán cho các hành vi phân biệt đối xử, sử dụng các quyền hạn pháp lý hiện có để giải quyết vấn đề.
Đọc thêm: Reddit sẽ trả tiền cho AI để truy cập API của nó, học hỏi từ lưu trữ bài đăng từ nội dung do con người tạo
vấn đề bản quyền
Trong Liên minh Châu Âu, các biện pháp được đề xuất theo Đạo luật AI sẽ yêu cầu các công ty như OpenAI tiết lộ bất kỳ tài liệu có bản quyền nào, chẳng hạn như sách hoặc ảnh, được sử dụng để đào tạo người mẫu của họ. Quy định này khiến họ dễ gặp phải những thách thức pháp lý liên quan đến vi phạm bản quyền.
Tuy nhiên, điều quan trọng cần lưu ý là việc chứng minh vi phạm bản quyền có thể không phải là một quá trình dễ dàng, như Sergey Lagodinsky, một trong những chính trị gia tham gia soạn thảo đề xuất của EU, đã thừa nhận.
Theo Bertrand Pailhes, lãnh đạo công nghệ tại CNIL, cơ quan quản lý dữ liệu của Pháp, họ đã sử dụng phương pháp tiếp cận “sáng tạo” để khám phá cách áp dụng các luật hiện hành cho trí tuệ nhân tạo.
Tại Pháp, các khiếu nại về phân biệt đối xử thường thuộc thẩm quyền của Defenseur des Droits (Người bảo vệ các quyền). Tuy nhiên, do thiếu chuyên môn về xu hướng AI trong tổ chức, CNIL đã chủ động giải quyết vấn đề này.
Pailhes giải thích rằng họ đang nghiên cứu đầy đủ các tác động, với trọng tâm chính là bảo vệ dữ liệu và quyền riêng tư. CNIL đang xem xét áp dụng các điều khoản GDPR để bảo vệ các cá nhân khỏi quá trình ra quyết định tự động.
Những bài viết liên quan: Hướng dẫn nhanh: Superchat ứng dụng hỗ trợ AI mới cho phép người dùng trò chuyện với DaVinci, một nhân vật lịch sử khác!
