Tại một hội nghị thượng đỉnh tại Nhà Trắng vào thứ Sáu tuần này, bảy trong số các công ty AI hàng đầu thế giới đã tuyên bố sẽ cải thiện các biện pháp bảo vệ an toàn và bảo mật xung quanh các sản phẩm AI của họ. Sau nhiều tháng tham vấn qua lại và yêu cầu bình luận, thỏa thuận giữa Nhà Trắng và các công ty có đầu tư vào AI là Amazon, Anthropic, Meta, Microsoft, Google, Inflection và OpenAI tìm cách giải quyết những lo ngại của Chính quyền về rủi ro và nguy hiểm của các hệ thống AI.
Một trong những biện pháp được thống nhất là tăng tài trợ cho nghiên cứu phân biệt đối xử, như một cách để chống lại những thành kiến thuật toán hiện đang có trong các mạng AI.
Các công ty cũng đồng ý đầu tư thêm vào an ninh mạng. Nếu bạn đã từng phát triển một dự án hoặc mã hóa thứ gì đó trong một công cụ như ChatGPT, thì bạn sẽ biết thông tin chứa trong trò chuyện AI của mình toàn diện đến mức nào. Và đã có đủ thông tin xác thực người dùng ChatGPT bị rò rỉ trực tuyến — không phải do lỗi của OpenAI, xin lưu ý bạn — đó là điều mà việc đầu tư an ninh mạng tăng lên nhằm mục đích chống lại.
Việc triển khai hình mờ trên nội dung do AI tạo ra cũng được hứa hẹn — một vấn đề đặc biệt nóng trên báo chí gần đây vì nhiều lý do.
Có góc độ bản quyền, đã chứng kiến nhiều vụ kiện được đưa ra tại các công ty AI lớn: đánh dấu mờ nội dung do AI tạo ra sẽ là một cách để xoa dịu nỗi sợ hãi về dữ liệu mới nổi, do con người tạo ra (dữ liệu được tạo tự động chỉ từ hành động diễn ra trong cuộc sống của chúng ta) ngày càng bị pha loãng trong một biển nội dung do AI tạo ra được cải thiện nhanh chóng.
Ngoài ra còn có góc độ tác động hệ thống: những công việc nào sẽ bị ảnh hưởng bởi AI? Vâng, có đủ nhu cầu trên thế giới để cuối cùng thu hút người lao động sang các ngành khác, ít bị ảnh hưởng hơn, nhưng quá trình chuyển đổi đó có chi phí về con người, kinh tế và khung thời gian. Nếu thay đổi quá nhiều, quá nhanh, toàn bộ nền kinh tế và hệ thống lao động có thể bị phá vỡ.
Tất nhiên, việc đánh dấu dữ liệu do AI tạo ra (hoặc dữ liệu tổng hợp, vì nó được gọi gần đây và thường xuyên hơn) cũng là mối quan tâm của các công ty AI. Họ không muốn AI của mình cuối cùng trở nên MAD do các bộ dữ liệu tổng hợp, bộ dữ liệu bị nhiễm độc, cũng như không có khả năng phân biệt dữ liệu tổng hợp với dữ liệu mới nổi, an toàn hơn nhưng đắt tiền hơn nhiều.
Và nếu các vấn đề trong việc đào tạo đệ quy AI vẫn còn quá khó giải quyết trong thời gian quá lâu do AI đã hết hạn sử dụng, thì các nhà phát triển AI có thể sớm cạn kiệt bộ dữ liệu tốt để tiếp tục đào tạo mạng của họ.
Tất cả những lời hứa đều là tự nguyện, có thể là để thể hiện thiện chí từ phía các tập đoàn đầu tư nhiều nhất vào AI. Nhưng có một phần thưởng bổ sung: một động thái như thế này cũng giúp loại bỏ một số lợi thế khỏi câu hỏi “liệu chúng ta có thể kiểm soát AI với tốc độ mà chúng ta hiện đang thực hiện không?” tranh luận. Nếu các nhà phát triển riêng của AI sẵn sàng tự nguyện tăng cường độ an toàn và bảo mật cho hệ thống của họ, thì có lẽ đây cũng là lĩnh vực mà họ cũng sẽ là những người gác cổng giỏi (mặc dù số dặm của bạn có thể thay đổi).
Một phần của vấn đề với cách tiếp cận này là đây chỉ là bảy công ty: còn hàng trăm công ty khác đang phát triển các sản phẩm AI thì sao? Liệu những thứ đã nhỏ hơn và ở thế bất lợi so với những người khổng lồ như OpenAI và Microsoft có thể được tin cậy không? Bởi vì đó là những công ty thu được nhiều lợi nhuận hơn từ việc buộc phải đưa sản phẩm mà kế sinh nhai của họ phụ thuộc vào ra thị trường mở không chuẩn bị trước. Đây chắc chắn không phải là lần đầu tiên một sản phẩm được gấp rút kiếm tiền.
Các cam kết đã kêu gọi xác thực và xác minh nội bộ và bên ngoài rằng chúng đang được theo đuổi tích cực (nhưng luôn có sự sơ suất, thông tin sai lệch, tài liệu bị thất lạc và sơ hở).
Vấn đề ở đây là AI thực sự gây ra rủi ro cơ bản, ở mức độ tuyệt chủng và có một mặt của lợi thế đó mà chúng tôi chắc chắn không muốn tham gia.