Đó là điều đã được khắc sâu vào bạn ngay từ bài luận đầu tiên bạn viết ở trường: Luôn kiểm tra các nguồn của bạn. Tuy nhiên, luật sư Steven Schwartz ở New York đã dựa vào ChatGPT để tìm và xem xét chúng cho anh ta — một quyết định khiến thẩm phán đưa ra mức phạt 5.000 đô la đối với anh ta, cộng sự của anh ta là Peter LoDuca và công ty luật Levidow, Levidow và Oberman của họ, người bảo vệ báo cáo. Schwartz đã sử dụng nó cho trường hợp một người đàn ông đang kiện hãng hàng không Avianca của Colombia với cáo buộc rằng anh ta bị thương trên chuyến bay đến Thành phố New York. Trong trường hợp này, ChatGPT đã đưa ra sáu trường hợp làm tiền lệ, chẳng hạn như “Martinez kiện Delta Airlines” và “Miller kiện United Airlines”, không chính xác hoặc đơn giản là không tồn tại.
Trong quyết định phạt Schwartz và cộng sự, Thẩm phán P Kevin Castel giải thích: “Những tiến bộ về công nghệ là điều bình thường và không có gì là sai trái khi sử dụng một công cụ trí tuệ nhân tạo đáng tin cậy để hỗ trợ. Nhưng các quy tắc hiện hành áp đặt vai trò gác cổng đối với luật sư để đảm bảo tính chính xác hồ sơ của họ.” Về cơ bản, bạn có thể sử dụng ChatGPT cho công việc của mình nhưng ít nhất hãy kiểm tra các xác nhận quyền sở hữu của nó. Khi không làm như vậy, các luật sư đã “từ bỏ trách nhiệm của mình”, kể cả khi họ đứng trước những tuyên bố giả mạo sau khi tòa án đặt câu hỏi về tính hợp pháp của họ.
Ví dụ về ChatGPT và các chatbot AI khác không chính xác đang lan rộng. Ví dụ như chatbot của Hiệp hội Rối loạn Ăn uống Quốc gia đã cung cấp cho những người khỏi chứng rối loạn ăn uống các mẹo ăn kiêng hoặc ChatGPT cáo buộc sai một giáo sư luật về hành vi tấn công tình dục bằng cách sử dụng một bài báo không tồn tại từ Các bài viết washington như là bằng chứng.