Tiến sĩ, nhà đạo đức AI người Úc, Stefan Harrer, đã đề xuất một khuôn khổ đạo đức cho việc sử dụng AI Sáng tạo trong chăm sóc sức khỏe, nhằm giải quyết các rủi ro tiềm ẩn và đảm bảo các ứng dụng có trách nhiệm trong lĩnh vực này.

Mô hình ngôn ngữ lớn (LLM), một loại AI sáng tạo, có khả năng cách mạng hóa việc quản lý, giáo dục và truyền thông thông tin chăm sóc sức khỏe, nhưng chúng cũng gây ra những mối nguy hiểm đáng kể nếu không được kiểm soát đúng cách.

(Ảnh: PublicDomainPictures/Pixabay)

Quy tắc đạo đức cho AI trong chăm sóc sức khỏe

tiến sĩ Harrer, người giữ chức vụ Giám đốc Đổi mới của Trung tâm Nghiên cứu Hợp tác Y tế Kỹ thuật số (DHCRC) và là thành viên của Liên minh AI Y tế (CHAI), nhấn mạnh sự cần thiết của các quy định đạo đức để quản lý việc phát triển và sử dụng công nghệ AI tổng quát.

Nghiên cứu của ông nhấn mạnh tầm quan trọng của hướng dẫn kỹ thuật và quản trị cho các nhà phát triển, người dùng và cơ quan quản lý trong hệ sinh thái y tế kỹ thuật số để đảm bảo tiềm năng của AI tổng quát được khai thác một cách an toàn.

Bài viết này thu hút sự chú ý đến các ứng dụng khác nhau của AI tổng quát trong chăm sóc sức khỏe, chẳng hạn như hỗ trợ bác sĩ tạo báo cáo y tế, đơn giản hóa thuật ngữ y tế để giao tiếp giữa bác sĩ và bệnh nhân hiệu quả và nâng cao hiệu quả của quy trình thiết kế thử nghiệm lâm sàng và khám phá thuốc.

Tuy nhiên, nghiên cứu cũng nêu bật những mối nguy hiểm liên quan đến AI tạo ra bởi LLM, đặc biệt là khả năng sản xuất và phổ biến nội dung sai lệch, không phù hợp và có khả năng gây hại trên quy mô lớn.

tiến sĩ Harrer đã cảnh báo chống lại việc một số thực thể vội vàng sản xuất các công cụ hỗ trợ LLM, điều này có thể gây nguy hiểm cho sức khỏe của người dùng cũng như tính toàn vẹn của AI và cơ sở dữ liệu tri thức.

Để giải quyết nguy cơ này, TS. Harrer đề xuất một tập hợp toàn diện các lộ trình giảm thiểu rủi ro phù hợp với việc sử dụng công nghệ LLM trong y tế và y tế.

Ông kêu gọi một cách tiếp cận có đạo đức đối với việc thiết kế và sử dụng các ứng dụng AI tổng quát, nhấn mạnh tầm quan trọng của việc xây dựng AI như một công cụ hỗ trợ thay vì thay thế con người ra quyết định.

Khuôn khổ này cũng nhấn mạnh các tiêu chuẩn về tính minh bạch, quyền riêng tư, bảo mật và hiệu suất, đồng thời hỗ trợ các tiêu chuẩn làm việc công bằng và an toàn cho các nhà phát triển con người.

Nghiên cứu đề xuất các phương pháp thay thế để thiết kế lại các ứng dụng AI tổng quát, định hình khung pháp lý và hướng các nỗ lực nghiên cứu hướng tới việc triển khai và thực thi các nguyên tắc sử dụng và thiết kế có đạo đức.

Đọc thêm: Tổ chức Theo dõi Nhân quyền cho biết Trí tuệ nhân tạo Sáng tạo có thể đe dọa các cuộc điều tra – Tại sao?

Giảm thiểu rủi ro AI

Khung pháp lý Dr. Harrer đã đề xuất mười nguyên tắc nhằm giảm thiểu rủi ro liên quan đến AI tổng quát trong chăm sóc sức khỏe.

Các nguyên tắc này bao gồm các lĩnh vực như giám sát của con người, minh bạch dữ liệu, bảo vệ quyền riêng tư và khuôn khổ trách nhiệm đối với dữ liệu đào tạo và nội dung do AI tạo ra.

Nghiên cứu kết luận bằng cách nêu bật tầm quan trọng của việc phát triển và vận hành các ứng dụng AI tổng quát do LLM cung cấp một cách có trách nhiệm.

tiến sĩ Harrer dự đoán sự thay đổi từ môi trường cạnh tranh hiện tại sang giai đoạn thử nghiệm thận trọng, nhận thức được rủi ro, dẫn đến việc giới thiệu các ứng dụng cụ thể trong quản lý dữ liệu sức khỏe kỹ thuật số trong hai năm tới.

Nhận thức được vai trò quan trọng của đạo đức, các bên liên quan như DHCRC và CHAI thừa nhận sự cần thiết phải có các hướng dẫn và biện pháp bảo vệ để đảm bảo việc sử dụng AI tổng quát một cách an toàn và có đạo đức.

Họ nhấn mạnh tầm quan trọng của việc bảo vệ bệnh nhân, giảm sự thiên vị và ngăn ngừa những hậu quả không mong muốn trong chăm sóc sức khỏe.

Khung đề xuất đầy đủ đã được xuất bản trong EbioMedicine.

Những bài viết liên quan: AI lặn xuống đại dương để theo dõi sức khỏe rạn san hô toàn cầu

gạch tên