Một luật sư ở New York đang phải đối mặt với phiên tòa của chính mình sau khi công ty của ông sử dụng công cụ AI ChatGPT để nghiên cứu pháp lý.
Một thẩm phán cho biết tòa án đã phải đối mặt với một “tình huống chưa từng có” sau khi một hồ sơ được tìm thấy để tham khảo các trường hợp pháp lý mẫu không tồn tại.
Luật sư sử dụng ChatGPT này nói với tòa án rằng ông “không biết rằng nội dung của nó có thể sai”. ChatGPT tạo văn bản gốc theo yêu cầu, nhưng đi kèm với cảnh báo nó có thể “tạo ra thông tin không chính xác”.
Vụ án ban đầu liên quan đến một người đàn ông kiện một hãng hàng không về một thương tích cá nhân bị cáo buộc. Nhóm pháp lý của anh ấy đã đệ trình một bản tóm tắt trích dẫn một số vụ kiện trước đó nhằm chứng minh, sử dụng tiền lệ, tại sao vụ việc nên được tiến hành.
Nhưng các luật sư của hãng hàng không sau đó đã viết thư cho thẩm phán để nói rằng họ không thể tìm thấy một số trường hợp được đề cập trong bản tóm tắt.
“Sáu trong số các trường hợp được đệ trình dường như là các quyết định tư pháp không có thật với các trích dẫn không có thật và các trích dẫn nội bộ không có thật,” Thẩm phán Castel viết trong một lệnh yêu cầu nhóm pháp lý của người đàn ông tự giải thích.
Qua một số hồ sơ, có vẻ như nghiên cứu đã không được chuẩn bị bởi Peter LoDuca, luật sư của nguyên đơn, mà bởi một đồng nghiệp của ông tại cùng một công ty luật. Steven A Schwartz, người đã làm luật sư hơn 30 năm, đã sử dụng ChatGPT để tìm kiếm các trường hợp tương tự trước đây.
Trong tuyên bố bằng văn bản của mình, ông Schwartz làm rõ rằng ông LoDuca không phải là một phần của nghiên cứu và không biết nó đã được thực hiện như thế nào. Ông Schwartz nói thêm rằng ông “rất hối hận” khi dựa vào chatbot mà ông nói rằng ông chưa bao giờ sử dụng cho nghiên cứu pháp lý trước đây và “không biết rằng nội dung của nó có thể sai”.
Phương Linh – Báo Mỹ
Leave a comment