Theo báo cáo của TechCrunch, Thẩm phán Liên bang Texas Brantley Starr đã thực hiện các biện pháp ngăn chặn việc sử dụng các lập luận do AI tạo ra tại tòa án.

Để đối phó với một vụ việc gần đây trong đó một luật sư đã sử dụng một mô hình ngôn ngữ để bổ sung cho nghiên cứu pháp lý của mình, dẫn đến việc trình bày các vụ án và tiền lệ hư cấu, Thẩm phán Starr đã đưa ra các yêu cầu mới đối với các luật sư xuất hiện tại tòa án của mình.

Yêu cầu nêu rõ các luật sư phải xác minh và tuyên bố rằng không có phần nào trong hồ sơ của họ được soạn thảo bởi trí tuệ nhân tạo (AI) hoặc nếu có liên quan đến AI, thì nó đã được con người xem xét và xác minh kỹ lưỡng.

Bước này là một biện pháp phòng ngừa để tránh những tình huống như vậy tái diễn và để duy trì tính toàn vẹn của thủ tục tố tụng tại tòa án.

(Ảnh: Daniel Bone từ Pixabay)

Không có Chatbot AI tại Tòa án

Quyết định được đưa ra trên trang web liên bang cho Quận phía Bắc của Texas, nơi các thẩm phán có thẩm quyền đặt ra các quy tắc cụ thể cho phòng xử án của họ.

Quy tắc mới được thêm vào có tên là “Chứng nhận bắt buộc về trí tuệ nhân tạo sáng tạo”, nhằm đảm bảo tính minh bạch và trách nhiệm giải trình trong hồ sơ pháp lý.

Theo các yêu cầu về giấy chứng nhận, các luật sư có trách nhiệm nộp giấy chứng nhận cho biết rằng các bài nộp của họ không chứa bất kỳ nội dung nào do AI tạo ra, chẳng hạn như ChatGPT, Harvey.AI hoặc Google Bard.

Ngoài ra, nếu sử dụng hỗ trợ AI, thì phải xác minh rằng ngôn ngữ do AI tạo ra đã trải qua quá trình kiểm tra độ chính xác kỹ lưỡng do con người thực hiện bằng cách sử dụng các nguồn đáng tin cậy như báo in hoặc cơ sở dữ liệu pháp lý truyền thống.

Mẫu đính kèm để luật sư ký rõ ràng bao gồm nhiều khía cạnh khác nhau, bao gồm “các đoạn trích, trích dẫn, tuyên bố diễn giải và phân tích pháp lý.”

Mặc dù AI vượt trội trong việc tóm tắt và truy xuất các tiền lệ, nhưng các mô hình ngôn ngữ lớn có thể mắc lỗi và có thể tạo ra thông tin không chính xác, điều mà ChatGPT của OpenAI cũng thừa nhận rõ ràng.

Đọc thêm: Công nghệ AI mới của NVIDIA giúp tương tác với NPC trở nên tự nhiên hơn! Đây là những điều bạn cần biết về Avatar Cloud Engine

Ảo giác và Xu hướng AI

Bản ghi nhớ kèm theo quyết định của Thẩm phán Starr cung cấp giải thích toàn diện về các yêu cầu của nó. Nó làm nổi bật sức mạnh to lớn và tính linh hoạt của nền tảng AI trong các ứng dụng pháp lý khác nhau, chẳng hạn như tạo biểu mẫu, hỗ trợ yêu cầu khám phá, xác định lỗi có thể xảy ra trong tài liệu và dự đoán câu hỏi trong các cuộc tranh luận bằng miệng.

Tuy nhiên, bản ghi nhớ nhấn mạnh rằng các cuộc họp giao ban pháp lý không phải là cách sử dụng phù hợp cho các hệ thống AI hiện tại do những hạn chế cố hữu.

Bản ghi nhớ nêu lên mối lo ngại về xu hướng ảo giác và thiên vị của AI. Nó cho thấy rằng các mô hình AI có thể tổng hợp thông tin, bao gồm cả trích dẫn và trích dẫn.

Hơn nữa, mặc dù các luật sư bị ràng buộc bởi lời thề tuân thủ luật pháp và đại diện công bằng cho khách hàng của họ, AI được phát triển bởi những cá nhân không phải tuân theo nghĩa vụ đó.

Các yêu cầu chứng nhận do văn phòng của Thẩm phán Starr đưa ra là một bước quan trọng trong việc đảm bảo trách nhiệm giải trình và tính chính xác của hồ sơ pháp lý. Mặc dù động thái cụ thể này chỉ giới hạn ở một thẩm phán trong một tòa án, nhưng nó có thể khuyến khích các thẩm phán khác làm theo và áp dụng các quy tắc tương tự.

Những bài viết liên quan: Các nhà lãnh đạo G-7 muốn phát triển khuôn khổ AI được gọi là ‘Quy trình AI của Hiroshima’ sau Hội nghị thượng đỉnh gần đây

gạch tên