Dùng ChatGPT, Steven Schwartz – một luật sư có hơn 30 năm kinh nghiệm trong nghề, đang đối mặt với nguy cơ mất đi sự nghiệp vì đã mắc một sai lầm nghiêm trọng. Trong một vụ kiện đối đầu với hãng hàng không Avianca, ông đã dùng một ứng dụng giao tiếp thông minh, gọi là ChatGPT, để tìm kiếm thông tin pháp lý mà không kiểm chứng độ tin cậy của nó.

dùng chatgpt 1

Sự tăng trưởng mạnh mẽ của công nghệ AI đã dấy lên nhiều sự hoài nghi về tính xác thực thông tin. Ảnh: Reuters.

Nguyên đơn trong vụ kiện này là Roberto Mata, người đã kiện hãng hàng không Avianca sau khi bị thương ở đầu gối do va chạm với một xe đẩy hàng tại sân bay quốc tế Kennedy, New York. Hãng hàng không đã thuê một luật sư để bào chữa và khẳng định rằng thời hạn khởi tố vụ án đã qua. Tuy nhiên, luật sư bên nguyên đơn, Steven Schwartz, không đồng ý với quan điểm của bị đơn và trình bày tài liệu tóm tắt 8 phiên tòa trước đó có liên quan đến các trường hợp tương tự.

Tuy nhiên, mọi việc đã trở nên phức tạp khi không ai có thể tìm thấy bất kỳ phán quyết của tòa án hoặc đoạn trích dẫn nào từ 10 trang tài liệu mà Steven Schwartz trình bày. Cuối cùng, đã được phát hiện rằng các tài liệu này không phải là kết quả của công việc nghiêm túc của luật sư, mà thực tế là được tạo ra bởi ChatGPT. Steven Schwartz đã nhận ra sự sai lầm của mình và thừa nhận rằng ông đã lạm dụng AI – “một nguồn thông tin không đáng tin cậy” để tìm kiếm thông tin pháp lý.

Dùng ChatGPT để nhúng tay vào các văn bản pháp lý

Theo báo New York Times, vụ kiện của Roberto Mata đối đầu với hãng hàng không Avianca bắt đầu sau chuyến bay số hiệu 670 từ El Salvador đến New York vào ngày 27/8/2019. Mata đã bị thương sau khi bị một nhân viên sân bay va chạm với xe đẩy hàng. Sau khi Mata nộp đơn kiện lên tòa án, hãng hàng không đã kháng cáo và khẳng định rằng vụ án đã hết hiệu lực.

Trong phiên tòa diễn ra vào tháng 3, luật sư đại diện cho Roberto Mata đã khẳng định rằng bên nguyên đơn vẫn có quyền đâm đơn kiện và trình bày chứng cứ từ nhiều vụ kiện trước đó có liên quan. Tuy nhiên, luật sư của hãng hàng không Avianca đã phản đối và cho biết họ không thể tìm thấy các vụ án được đề cập trong bản tóm tắt tài liệu của bên nguyên đơn.

Luật sư của Avianca nói, “Chúng tôi không thể xác định thời điểm và địa điểm xảy ra các vụ án được đề cập và không có bất kỳ thông tin nào về các vụ án tương tự này.” Thẩm phán Castel đã yêu cầu luật sư đại diện cho Mata cung cấp bản sao đầy đủ của tài liệu tóm tắt các vụ án trước đó. Tuy nhiên, luật sư chỉ nộp một bản trích yếu gồm thông tin về tòa án, thẩm phán, số vụ án và ngày diễn ra.

dùng chatgpt

Dùng ChatGPT trong quá trình kiện tụng mà không xác minh thông tin là rất nguy hiểm. Ảnh: TechSpot.

Đáp lại, luật sư của Avianca tiếp tục bác bỏ và cho biết rằng họ không thể tìm thấy trích dẫn, số vụ án hoặc bất kỳ thông tin pháp lý nào liên quan đến 6/8 vụ án dựa trên thông tin này. Luật sư Bart Banino của Avianca đã khẳng định rằng những vụ án này hoàn toàn không có thực và có nghi ngờ về sự can thiệp của trí tuệ nhân tạo từ ChatGPT.

Sau đó, luật sư Schwartz đã thừa nhận rằng ông đã tham khảo ChatGPT để “bổ sung” cho công việc của mình và trong quá trình đó, ông đã mắc sai lầm khi tin tưởng và trích dẫn từ 6 vụ án không có thực trong bản tài liệu tham khảo của mình.

Luật sư Schwartz đã nói với thẩm phán Kevin Castel rằng ông không có ý định tạo dựng sự thật để biện hộ cho đơn kiện đối với hãng hàng không Avianca.

Đây là lần đầu tiên luật sư Steven Schwartz sử dụng ChatGPT trong công việc kiện tụng, và ông không nhận thức được nguy cơ rằng nó có thể tạo ra thông tin giả. Ông đã thậm chí hỏi ChatGPT để xác nhận tính chính xác của các vụ án được đề cập trong tài liệu. Vào thời điểm đó, ChatGPT của OpenAI khẳng định rằng chúng là có thật.

Lần đầu gặp phải tình trạng chat AI làm giả giấy tờ

Trong phiên tòa, luật sư Schwartz đã tỏ ra rất hối lỗi khi phụ thuộc vào ChatGPT. Ông cam kết không tái phạm và sẽ không bỏ qua việc xác minh thông tin như vậy trong tương lai.

Với phía tòa án, thẩm phán Castel cho biết đây là lần đầu tiên ông gặp phải tình huống mà tất cả các tài liệu liên quan đến phán quyết đều không chính xác, bao gồm cả trích dẫn về luật và các vụ án tham khảo. Ông yêu cầu tổ chức một phiên điều trần vào ngày 8/6 để đưa ra phán quyết chính thức.

dùng chatgpt 3

ChatGPT khẳng định các vụ án trên là hoàn toàn có thật! Ảnh: Simon Willison.

Theo New York Times, với sự gia tăng của trí tuệ nhân tạo trong môi trường trực tuyến, có nhiều người bày tỏ lo ngại về tương lai mà máy tính sẽ thay thế không chỉ các tương tác xã hội mà còn các công việc lao động trí tuệ của con người. Trong lĩnh vực luật, những lo ngại này đã gây ra tranh cãi về lợi ích và nguy cơ của phần mềm AI như ChatGPT.

Giáo sư Stephen Gillers, chuyên gia đạo đức pháp luật tại Trường Luật New York University, cho biết đây là một vấn đề quan trọng trong giới luật. Luật sư đã từng tranh luận nhiều lần về lợi ích và nguy cơ của các phần mềm AI như ChatGPT.

Theo MobiFone Công nghệ số, dùng chatGPT hoặc các phần mềm AI khác đúng cách sẽ rất có ích cho công việc và cuộc sống. Tuy nhiên như đã nói, các thông tin từ chúng cần được xác thực và tìm hiểu lại một cách thấu đáo trước khi áp dụng vào thực tiễn. Trường hợp luật sư Schwartz là rất đáng tiếc và cần được chúng ta rút kinh nghiệm sâu sắc!

 

Nguồn: Zing News

 

    ĐĂNG KÝ NHẬN NGAY ƯU ĐÃI

    Bạn quan tâm giải pháp

    Ngày hẹn tư vấn (nếu có)

    Trả lời

    Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

    error: Content is protected !!