Quốc hội rõ ràng có những giới hạn nghiêm ngặt đối với việc sử dụng ChatGPT và các công cụ AI tổng quát tương tự. trục tuyên bố đã nhận được một bản ghi nhớ từ Giám đốc hành chính Hạ viện Catherine Szpindor đặt ra các điều kiện hạn chế cho việc sử dụng ChatGPT và các mô hình AI ngôn ngữ lớn tương tự trong các văn phòng quốc hội. Szpindor cho biết nhân viên chỉ được phép sử dụng dịch vụ ChatGPT Plus trả phí do dịch vụ này kiểm soát quyền riêng tư chặt chẽ hơn và sau đó chỉ dành cho “nghiên cứu và đánh giá”. Họ không thể sử dụng công nghệ như một phần công việc hàng ngày của họ.
Szpindor cho biết thêm, các văn phòng tại gia chỉ được phép sử dụng chatbot với dữ liệu có thể truy cập công khai ngay cả khi sử dụng Plus. Các tính năng bảo mật phải được kích hoạt thủ công để ngăn các tương tác cung cấp dữ liệu vào mô hình AI. Bậc miễn phí của ChatGPT hiện không được phép, cũng như bất kỳ mô hình ngôn ngữ lớn nào khác.
Chúng tôi đã yêu cầu Hạ viện cho ý kiến và sẽ cho bạn biết nếu chúng tôi nhận được phản hồi. Tuy nhiên, một chính sách sử dụng như thế này sẽ không gây ngạc nhiên. Các tổ chức và công ty đã cảnh báo không nên sử dụng AI tổng quát do khả năng xảy ra tai nạn và lạm dụng. Chẳng hạn, đảng Cộng hòa đã bị chỉ trích vì sử dụng quảng cáo tấn công do AI tạo ra, trong khi nhân viên Samsung được cho là đã làm rò rỉ dữ liệu nhạy cảm qua ChatGPT khi sử dụng bot cho công việc. Các trường học đã cấm các hệ thống này vì lo ngại gian lận. Về mặt lý thuyết, các hạn chế về nhà ở ngăn chặn các vấn đề tương tự, chẳng hạn như các bài phát biểu và luật pháp do AI viết.
Chính sách của Hạ viện có thể không vấp phải nhiều phản đối. Cả hai bên của Quốc hội đang cố gắng điều chỉnh và nếu không thì sẽ chi phối AI. Tại Hạ viện, Đại diện Ritchie Torries đã giới thiệu một dự luật yêu cầu tuyên bố từ chối trách nhiệm đối với việc sử dụng AI tổng quát, trong khi Đại diện Yvette Clark muốn tiết lộ tương tự cho các quảng cáo chính trị. Các thượng nghị sĩ đã tiến hành các phiên điều trần về AI và đưa ra dự luật buộc các nhà phát triển AI phải chịu trách nhiệm về nội dung có hại được sản xuất bằng nền tảng của họ.