Trí tuệ nhân tạo (AI) đang phát triển nhanh chóng khiến việc phân biệt đâu là thật đâu là giả ngày càng khó khăn. Điều này đặc biệt đúng đối với deepfakes.

Deepfakes AI đặc biệt đáng lo ngại vì khả năng đánh lừa và thao túng thông tin theo những cách không thể tưởng tượng trước đây. Những sáng tạo tiên tiến này làm mờ ranh giới giữa thực tế và hư cấu, làm xói mòn niềm tin vào nội dung hình ảnh và âm thanh.

(Ảnh: Gerd Altmann từ Pixabay)

Deepfakes có thể được sử dụng để ngụy tạo bằng chứng sai, thao túng dư luận và thậm chí là tống tiền các cá nhân. Dễ dàng truy cập vào công nghệ AI có nghĩa là bất kỳ ai có máy tính và kết nối internet đều có thể tạo ra các tác phẩm sâu thuyết phục, làm tăng khả năng sử dụng cho mục đích xấu.

Cayce Myers, giáo sư của Trường Truyền thông Công nghệ Virginia, đã dành công sức nghiên cứu của mình để nghiên cứu công nghệ đang phát triển này và chia sẻ những hiểu biết sâu sắc về tương lai giả và các phương pháp để phát hiện ra nó.

“Càng khó khăn hơn”

“Việc xác định thông tin sai lệch ngày càng trở nên khó khăn, đặc biệt là AI tiên tiến tạo ra những thông tin sai lệch sâu sắc,” Myers cho biết trong một tuyên bố, được Virginia Tech đưa tin.

“Rào cản chi phí cho AI tổng quát cũng thấp đến mức hiện nay hầu hết mọi người có máy tính và internet đều có quyền truy cập vào AI.”

Myers dự đoán rằng trong những năm tới, chúng ta có thể mong đợi sự gia tăng thông tin sai lệch, cả hình ảnh và văn bản. Ông nhấn mạnh tầm quan trọng của kiến ​​thức truyền thông và kỹ năng tư duy phản biện để người dùng hiểu được sự thật đằng sau bất kỳ tuyên bố nào.

Các nhà nghiên cứu lưu ý rằng việc nhận biết và hiểu các dấu hiệu cảnh báo về thông tin sai lệch sẽ rất quan trọng trong việc chống lại sự lây lan của nó.

Mặc dù các công cụ xử lý hình ảnh truyền thống như Photoshop đã được sử dụng trong nhiều năm, Myers nhấn mạnh sự khác biệt chính giữa chúng và thông tin sai lệch do AI tạo ra, đó là mức độ tinh vi và quy mô của sự lừa dối.

Myers nói rằng trong khi Photoshop cho phép tạo ra các hình ảnh giả mạo, thì AI có thể tạo ra các video được thay đổi có sức thuyết phục cao. Với sự phổ biến của thông tin sai lệch như một nguồn nội dung trực tuyến, loại tin tức giả mạo này có thể tiếp cận nhiều đối tượng hơn, đặc biệt nếu nó lan truyền.

Myers vạch ra trách nhiệm chung trong việc chống lại thông tin sai lệch, cả ở cấp độ cá nhân và doanh nghiệp. Các cá nhân phải nghiên cứu các nguồn, thận trọng khi chia sẻ thông tin trực tuyến và phát triển con mắt phê phán để nhận ra thông tin sai lệch.

Cũng đọc: Google mở quyền truy cập vào các thử nghiệm tìm kiếm AI

Nỗ lực cá nhân sẽ không đủ

Tuy nhiên, Myers thừa nhận rằng những nỗ lực cá nhân thôi sẽ không đủ. Các nhà sản xuất nội dung AI và nền tảng truyền thông xã hội, nơi thông tin sai lệch thường tràn lan, cũng phải hành động để thực hiện các biện pháp bảo vệ và ngăn chặn việc phổ biến rộng rãi thông tin sai lệch do AI tạo ra.

Điều chỉnh AI hiện đang là chủ đề thảo luận ở cấp liên bang, tiểu bang và địa phương tại Hoa Kỳ. Các nhà lập pháp đang vật lộn với một loạt vấn đề liên quan đến AI, trong đó thông tin sai lệch, sai lệch, vi phạm quyền sở hữu trí tuệ và quyền riêng tư là những vấn đề hàng đầu trong những mối lo ngại này.

“Vấn đề là các nhà lập pháp không muốn tạo ra luật mới điều chỉnh AI trước khi chúng ta biết công nghệ sẽ đi đến đâu. Tạo luật quá nhanh có thể kìm hãm sự phát triển và tăng trưởng của AI, tạo luật quá chậm có thể mở ra cơ hội cho nhiều vấn đề tiềm ẩn. Đạt được sự cân bằng sẽ là một thách thức,” Myers nói.

Khi AI tiếp tục phát triển, thách thức trong việc xác định và chống làm giả ngày càng trở nên khó khăn, làm nổi bật nhu cầu cấp thiết về các phương pháp phát hiện cải tiến và các biện pháp quản lý để giảm thiểu tác hại của nó.

Những bài viết liên quan: Nhà Trắng giới thiệu nỗ lực mới để hướng dẫn nghiên cứu AI

gạch tên