(SeaPRwire) – Các thẩm phán ở Anh và xứ Wales sẽ được phép sử dụng “cẩn trọng” trí tuệ nhân tạo (AI) để giúp ra các phán quyết, nhưng các chuyên gia vẫn chia rẽ về mức độ mà các thẩm phán hoặc toàn bộ ngành luật sư có nên tìm cách sử dụng công nghệ này một cách rộng rãi hơn.
“Tôi nghĩ AI có thể phù hợp để tìm kiếm thông tin một cách rộng rãi nhất có thể,” William A. Jacobson, giáo sư luật tại Đại học Cornell và người sáng lập Dự án Bảo vệ Bình đẳng, cho biết trên tạp chí Digital.
“Điều đó có thể cung cấp thông tin cho quyết định của bạn, nhưng tôi không nghĩ rằng công nghệ này hiện tại – và tôi không biết liệu bao giờ nó có thể – có thể thực hiện việc phân loại… và đưa ra những quyết định và xác định cần thiết, dù là với tư cách là một thẩm phán hay luật sư,” Jacobson nói.
Cơ quan Thẩm phán, cơ quan bao gồm các thẩm phán, thẩm phán, thành viên phiên tòa và thanh tra viên ở Anh và xứ Wales, quyết định rằng các thẩm phán có thể sử dụng AI để viết ý kiến, và chỉ ý kiến, không có sự linh động để sử dụng công nghệ cho nghiên cứu hoặc phân tích pháp lý do khả năng của AI để giả mạo thông tin và cung cấp thông tin sai lệch, không chính xác và có định kiến.
Sự cẩn trọng đối với việc sử dụng AI trong lĩnh vực pháp lý một phần xuất phát từ một vài sai lầm nổi bật khiến các luật sư thử nghiệm với công nghệ này, dẫn đến việc đưa ra các văn bản tố tụng bao gồm các tham chiếu đến các vụ án hư cấu,
Luật sư Steven A. Schwartz, người đã đệ đơn khiếu nại thay mặt cho một khách hàng bị thương chống lại hãng hàng không Colombia Avianca, đã sử dụng AI để tìm kiếm tiền lệ pháp lý và nghĩ rằng khi ông không tìm thấy các vụ án đó là do không thể truy cập chúng như cách nền tảng AI ChatGPT có thể. Schwartz thừa nhận ông hoàn toàn không biết rằng .
Gần đây hơn, luật sư cũ của cựu Tổng thống Mỹ Donald Trump, Michael Cohen, đã đưa ra một tài liệu pháp lý bao gồm các vụ án giả mạo được tạo ra bởi nền tảng AI Bard của Google, một dịch vụ ông tin đơn giản chỉ là một “công cụ tìm kiếm nâng cao”.
Mặc dù những sai lầm nghiêm trọng này, các chuyên gia về AI vẫn tự tin về khả năng sử dụng các nền tảng này miễn là yếu tố con người vẫn được đặt ở vị trí trung tâm và kiểm soát quá trình một cách đáng kể.
“Đây sẽ là một vấn đề sẽ kéo dài trong thế hệ công nghệ này trong một thời gian dài,” Phil Siegel, người sáng lập Trung tâm Nghiên cứu và Mô phỏng Sự chuẩn bị và Phản ứng Đe dọa Tiên tiến, cho biết trên tạp chí Digital.
“Xét đến các quy tắc mà [chính phủ] đặt ra, cách tôi mô tả những gì các thẩm phán sẽ có trong tay của họ … bạn nên xem đó như một thanh thiếu niên siêu thông minh không có phán đoán. Bạn có thể yêu cầu nó viết luận án cho bạn, nhưng nếu bạn không kiểm tra công việc và đảm bảo rằng mọi thứ đều chính xác – với các vụ án được tham chiếu thực sự và những thứ tương tự – thì bạn sẽ tiếp tục nhận được những lời nói lung tung và đó sẽ là một vấn đề.”
Siegel nói rằng việc đặt trách nhiệm lên các thẩm phán sẽ giúp thúc đẩy họ nỗ lực hơn nếu họ sử dụng AI trong quy trình của mình, so sánh quy trình với hệ thống thư ký đã quen thuộc, thường thấy các sinh viên luật có kiến thức nhưng thiếu kinh nghiệm hoặc cử nhân luật mới tốt nghiệp viết ý kiến cho thẩm phán.
“Nếu bạn là một thẩm phán có thư ký không có kinh nghiệm và bạn không kiểm tra công việc của họ, tôi nghĩ bạn sẽ nhận được những gì xứng đáng,” Siegel nói.
Michael Frank, học giả cao cấp tại Trung tâm Wadhwani về Trí tuệ nhân tạo và Công nghệ Tiên tiến, cho biết công nghệ đã giúp giảm thiểu sự hư cấu trong các mô hình AI, mặc dù ông thừa nhận rằng do tác động và trọng lượng của các quyết định pháp lý, công chúng không có khả năng hài lòng với tỷ lệ hư cấu gần bằng không.
Đề cập đến tỷ lệ gần đây là 3% trong là “thực sự, thực sự tốt”, Frank cho biết với tạp chí Digital rằng “rõ ràng, đối với một điều gì đó nhạy cảm như án tuyên và viết ý kiến pháp lý, điều đó vẫn còn quá cao, và nguyên tắc cơ bản là luôn có vấn đề với triết lý này của AI.”
“Cách các mô hình này hoạt động là chúng dự đoán từ tiếp theo trong một chuỗi, và chúng đã trở nên rất giỏi trong việc đó,” Frank nói. “Nhưng chúng tôi không thể xác định chính xác tại sao các mô hình này đến kết luận như vậy. Điều đó kỹ thuật không thể với công nghệ hiện tại.”
Nhưng Frank nói rằng công nghệ đã được cải thiện đủ để cung cấp cho tư pháp Anh sự tự tin đối với một số sử dụng. Hơn nữa, giống như trong các ngành công nghiệp khác, AI sẽ giúp giảm bớt gánh nặng công việc và giải quyết “điểm đau” của hệ thống pháp lý.
“Cần phải nhận ra rằng mục tiêu không nên hoàn toàn loại bỏ con người khỏi vòng luận,” Frank nói. “Nó nên hiểu vai trò của một thẩm phán, những điểm đau trong công việc của họ hiện nay, và cách bạn có thể triển khai những mô hình này để giải quyết những điểm đau đó.”
Jacobson lưu ý rằng sự hoài nghi có thể một phần xuất phát từ sự khác biệt thế hệ, chỉ ra sự áp dụng và quen thuộc lớn hơn mà các thế hệ trẻ có với công nghệ và AI cụ thể, khiến ông suy đoán rằng theo thời gian việc sử dụng công nghệ sẽ tăng ngay cả khi nó vẫn chưa chính xác đến một mức độ đáng kể nào đó.
“Bạn không thể ngăn dòng công nghệ, và bất cứ ai cố gắng bỏ qua nó, tôi nghĩ họ sẽ gặp bất lợi hoặc bất lợi trong tòa án,” Jacobson nói, “bất lợi trong việc điều hành một công ty luật hoặc một tập đoàn. Nó đã ở đây. Chúng ta phải đối phó với nó.”
Tạp chí Digital của Brie Stimson và
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.