Một bức thư ngỏ có chữ ký của các nhà lãnh đạo công nghệ và các nhà nghiên cứu AI nổi tiếng đã kêu gọi các phòng thí nghiệm AI và các công ty “ngay lập tức tạm dừng” công việc của họ. Các bên ký kết như Steve Wozniak và Elon Musk đồng ý với rủi ro đảm bảo thời gian ngừng sản xuất công nghệ ngoài GPT-4 tối thiểu sáu tháng để tận hưởng các hệ thống AI hiện có, cho phép mọi người điều chỉnh và đảm bảo rằng họ đang mang lại lợi ích cho mọi người. Bức thư nói thêm rằng cần phải cẩn thận và suy tính trước để đảm bảo an toàn cho các hệ thống AI — nhưng đang bị bỏ qua.
Tham chiếu đến GPT-4, một mô hình của OpenAI có thể trả lời bằng văn bản cho các tin nhắn bằng văn bản hoặc hình ảnh, xuất hiện khi các công ty đua nhau xây dựng các hệ thống trò chuyện phức tạp sử dụng công nghệ này. Ví dụ, Microsoft gần đây đã xác nhận rằng công cụ tìm kiếm Bing cải tiến của họ đã được cung cấp bởi mô hình GPT-4 trong hơn bảy tuần, trong khi Google gần đây đã ra mắt Bard, hệ thống AI tổng hợp của riêng họ được cung cấp bởi LaMDA. Sự lo lắng xung quanh AI đã lan truyền từ lâu, nhưng cuộc chạy đua rõ ràng để triển khai công nghệ AI tiên tiến nhất trước tiên đã thu hút nhiều mối quan tâm cấp bách hơn.
“Thật không may, cấp độ lập kế hoạch và quản lý này không xảy ra, mặc dù những tháng gần đây các phòng thí nghiệm AI đã bị mắc kẹt trong một cuộc chạy đua mất kiểm soát để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai – kể cả những người tạo ra chúng – có thể hiểu được , dự đoán hoặc kiểm soát một cách đáng tin cậy,” bức thư viết.
Bức thư liên quan được xuất bản bởi Viện Tương lai Cuộc sống (FLI), một tổ chức chuyên giảm thiểu rủi ro và lạm dụng công nghệ mới. Trước đây, Musk đã quyên góp 10 triệu đô la cho FLI để sử dụng cho các nghiên cứu về sự an toàn của AI. Ngoài ông và Wozniak, những người ký kết còn có một loạt các nhà lãnh đạo AI toàn cầu, chẳng hạn như chủ tịch Trung tâm AI và Chính sách kỹ thuật số Marc Rotenberg, nhà vật lý MIT và chủ tịch Viện Cuộc sống Tương lai Max Tegmark, và tác giả Yuval Noah Harari. Harari cũng đồng viết một op-ed trong Thời báo New York tuần trước đã cảnh báo về rủi ro AI, cùng với những người sáng lập Trung tâm Công nghệ Nhân đạo và những người cùng ký tên, Tristan Harris và Aza Raskin.
Lời kêu gọi này giống như bước tiếp theo của một cuộc khảo sát năm 2022 với hơn 700 nhà nghiên cứu máy học, trong đó gần một nửa số người tham gia cho biết có 10% khả năng xảy ra “kết quả cực kỳ tồi tệ” từ AI, bao gồm cả sự tuyệt chủng của loài người. Khi được hỏi về sự an toàn trong nghiên cứu AI, 68% các nhà nghiên cứu cho biết nên làm nhiều hơn hoặc nhiều hơn nữa.
Bất kỳ ai chia sẻ mối quan ngại về tốc độ và sự an toàn của việc sản xuất AI đều có thể thêm tên của họ vào bức thư. Tuy nhiên, tên mới không nhất thiết phải được xác minh nên bất kỳ bổ sung đáng chú ý nào sau lần xuất bản đầu tiên đều có khả năng là giả mạo.
Tất cả các sản phẩm do Cunghoctin đề xuất đều do nhóm biên tập của chúng tôi lựa chọn, độc lập với công ty mẹ của chúng tôi. Một số câu chuyện của chúng tôi bao gồm các liên kết liên kết. Nếu bạn mua thứ gì đó thông qua một trong những liên kết này, chúng tôi có thể kiếm được hoa hồng liên kết. Tất cả giá là chính xác tại thời điểm xuất bản.