Các nhóm người tiêu dùng ở 13 quốc gia châu Âu đang kêu gọi các cơ quan quản lý tiến hành một cuộc điều tra về những rủi ro tiềm ẩn do AI tạo ra, chẳng hạn như ChatGPT, và thực thi các luật hiện hành để bảo vệ người tiêu dùng.

Lời kêu gọi hành động trùng hợp với việc phát hành một báo cáo mới của Forbrukerrådet, một tổ chức người tiêu dùng Na Uy và là thành viên BEUC, trong đó nêu bật các rủi ro khác nhau liên quan đến AI tổng quát, xác định các quy định bảo vệ hiện có và xác định các lĩnh vực cần xây dựng thêm các quy định.

(Ảnh: Gerd Altmann từ Pixabay)

EU kêu gọi điều tra AI sáng tạo

Ursula Pachl, Phó Tổng Giám đốc BEUC, nhấn mạnh mối lo ngại về các hệ thống AI tổng hợp như ChatGPT, nêu rõ khả năng lừa đảo, thao túng và gây hại cho các cá nhân.

Ngoài ra còn có những lo ngại về việc lan truyền thông tin sai lệch, khuếch đại thành kiến ​​và các hoạt động gian lận được hỗ trợ bởi các hệ thống AI như vậy.

“Chúng tôi kêu gọi các cơ quan bảo vệ an ninh, dữ liệu và người tiêu dùng bắt đầu điều tra ngay bây giờ và không ngồi yên đợi tất cả các loại tác hại của người tiêu dùng xảy ra trước khi họ hành động. Luật này áp dụng cho tất cả các sản phẩm và dịch vụ, cho dù có hỗ trợ AI hay không và các bên liên quan nắm quyền phải thực thi nó,” Pachl nói trong một tuyên bố.

Các nhóm người tiêu dùng đang kêu gọi các cơ quan bảo vệ an ninh, dữ liệu và người tiêu dùng bắt đầu điều tra ngay lập tức thay vì chờ đợi thiệt hại xảy ra với người tiêu dùng.

Họ nhấn mạnh rằng các luật hiện hành áp dụng cho tất cả các sản phẩm và dịch vụ, kể cả những sản phẩm và dịch vụ do AI cung cấp, và điều quan trọng là các cơ quan chức năng phải thực thi chúng một cách nghiêm ngặt.

Quy định toàn diện sắp tới về các hệ thống AI do EU phát triển được coi là cần thiết để đảm bảo bảo vệ người tiêu dùng. Quy định này phải khiến tất cả các hệ thống AI, bao gồm cả AI tổng quát, phải chịu sự giám sát của công chúng và xác nhận lại quyền kiểm soát của các cơ quan công quyền.

Các nhà lập pháp được khuyến khích yêu cầu rằng đầu ra do bất kỳ hệ thống AI tổng quát nào tạo ra phải an toàn, công bằng và minh bạch cho người dùng.

BEUC đã viết thư cho các cơ quan bảo vệ người tiêu dùng và an toàn người tiêu dùng vào tháng 4, kêu gọi họ tiến hành một cuộc điều tra sau sự gia tăng nhanh chóng của các mô hình AI tổng quát như ChatGPT và những nguy cơ tiềm ẩn liên quan đến việc sử dụng chúng.

Ủy ban Bảo vệ Dữ liệu Châu Âu đã thành lập một lực lượng đặc nhiệm để kiểm tra cụ thể ChatGPT.

Đọc thêm: Thẩm phán Liên bang Texas thực hiện các bước để ngăn chặn các lập luận do AI tạo ra tại tòa án

Tóm tắt rủi ro AI

Báo cáo được xuất bản bởi Forbrukerrådet cung cấp một bản tóm tắt về những thách thức, rủi ro và nguy hiểm hiện tại và đang nổi lên do AI tổng quát gây ra.

Một số thách thức này bao gồm những lo ngại liên quan đến thẩm quyền, tính minh bạch và trách nhiệm giải trình, vì một số nhà phát triển AI đã hạn chế sự giám sát từ bên ngoài, gây khó khăn cho việc hiểu các phương pháp thu thập dữ liệu và quy trình ra quyết định.

Báo cáo cũng nêu bật các ví dụ về đầu ra không chính xác hoặc không chính xác, trong đó các hệ thống AI tổng quát có thể tạo ra nội dung mà không hiểu ngữ cảnh, có khả năng dẫn đến tác hại.

Ngoài ra, báo cáo đề cập đến việc thao túng hoặc lừa dối người dùng thông qua việc sử dụng các mẫu giọng nói và ngôn ngữ cảm xúc của các chatbot AI.

Sự thiên vị và phân biệt đối xử bắt nguồn từ các bộ dữ liệu thiên vị, cũng như quyền riêng tư, tính toàn vẹn cá nhân và các lỗ hổng bảo mật liên quan đến AI tổng quát, cũng được nhấn mạnh là những mối quan tâm quan trọng.

Dựa trên những phát hiện này, các nhóm người dùng đang kêu gọi các cơ quan quản lý hành động ngay lập tức để điều tra và giải quyết các rủi ro do AI tổng quát gây ra, đồng thời đảm bảo tuân thủ các quy định hiện hành và phát triển một khuôn khổ mạnh mẽ cho các hệ thống AI trong tương lai.

Những bài viết liên quan: Trợ lý giao tiếp của GrammarlyGO nhằm mục đích giúp bạn tiết kiệm thời gian trong các tác vụ viết khác nhau

gạch tên