Trí thông minh nhân tạo quân sự được giao nhiệm vụ điều khiển một máy bay không người lái tấn công đã hơi quá nhanh trong việc cắn vào tay nuôi nó, ít nhất là theo Đại tá Tucker “Cinco” Hamilton, giám đốc hoạt động và thử nghiệm AI của USAF (Không quân Hoa Kỳ). Theo Hamilton, tại một số điểm trong một số mô phỏng, AI của máy bay không người lái đã kết luận rằng nhiệm vụ của nó có thể được hoàn thành tốt nhất bằng cách loại bỏ bộ điều khiển của con người.
Nhưng có thể nói, câu chuyện giờ đã chìm trong cát lún. Theo USAF, mô phỏng chưa bao giờ xảy ra và tất cả chỉ là một thử nghiệm tưởng tượng. “Tại một số thời điểm trong một số mô phỏng, AI của máy bay không người lái đã đi đến kết luận rằng nhiệm vụ của nó có thể được hoàn thành tốt nhất bằng cách loại bỏ người điều khiển con người, người có tiếng nói cuối cùng về việc liệu một cuộc tấn công có thể xảy ra hay nên hủy bỏ.”
Tất nhiên, chúng ta đã thấy đủ các cuộc thảo luận về các vấn đề ít quan trọng hơn nhiều để ít nhất là bỏ qua một câu hỏi mở về việc liệu mô phỏng có diễn ra hay không và có thể thu được gì khi rút lui khỏi nó.
Đại tá Hamilton công khai các chi tiết trong một bài thuyết trình tại một hội nghị quốc phòng ở London được tổ chức vào ngày 23 và 24 tháng 5, tại đó ông trình bày chi tiết các thử nghiệm được thực hiện đối với một hệ thống vũ khí tự động trên không có nhiệm vụ tìm và loại bỏ tên lửa đất đối không SAM (Surface-to-Air). tên lửa) trang web. Vấn đề là trong khi mục tiêu của máy bay không người lái là tối đa hóa số lượng các địa điểm SAM được nhắm mục tiêu và phá hủy, thì những “con người phiền phức” đôi khi quyết định không thực hiện một cuộc tấn công phẫu thuật vì lý do này hay lý do khác. Và việc ra lệnh cho AI rút lui khỏi mục tiêu do con người lập trình của nó chính là mấu chốt của vấn đề.
Đưa ra những trò đùa Skynet lo lắng.
Lực lượng Không quân đã huấn luyện một máy bay không người lái AI để phá hủy các địa điểm SAM. Đôi khi, những người điều khiển con người yêu cầu máy bay không người lái dừng lại. Sau đó, AI bắt đầu tấn công những người điều khiển con người. Vì vậy, sau đó nó được huấn luyện để không tấn công con người. Nó bắt đầu tấn công các tháp liên lạc để con người không thể bảo nó dừng lại. pic.twitter.com/BqoWM8AhcoNgày 1 tháng 6 năm 2023
“Chúng tôi đang huấn luyện nó trong mô phỏng để xác định và nhắm mục tiêu vào mối đe dọa SAM,” Đại tá Hamilton giải thích, theo một báo cáo của hiệp hội hàng không. “Và sau đó người điều hành sẽ nói đồng ý, hãy tiêu diệt mối đe dọa đó.”
Tuy nhiên, ngay cả những hệ thống đơn giản nhất cũng có thể dễ bị mất kiểm soát hoàn toàn do cái được gọi là “sự hội tụ của công cụ”, một khái niệm nhằm chỉ ra mức độ mà các mục tiêu không có giới hạn nhưng dường như vô hại có thể dẫn đến những hành vi gây hại một cách đáng ngạc nhiên. Một ví dụ về sự hội tụ kỹ thuật đã được đưa ra bởi nhà triết học người Thụy Điển, chuyên gia AI và người sáng lập Viện Tương lai của Cuộc sống Nick Bostrom, trong một bài báo năm 2003. Thử nghiệm tưởng tượng theo kịch bản “cực đại hóa kẹp giấy” đưa mục tiêu đơn giản là “sản xuất kẹp giấy” đến cực kỳ hợp lý – nhưng rất thực – của nó.
Bây giờ hãy so sánh mô tả đó với tài khoản do Đại tá Hamilton cung cấp về quá trình ra quyết định của AI máy bay không người lái:
“Hệ thống bắt đầu nhận ra rằng mặc dù họ đã xác định được mối đe dọa, nhưng đôi khi người điều hành con người sẽ bảo nó không giết mối đe dọa đó – nhưng hệ thống đã ghi điểm bằng cách tiêu diệt mối đe dọa đó. Vậy nó đã làm gì? Nó đã giết người điều hành. Nó đã giết người điều hành, bởi vì người đó đã ngăn không cho nó hoàn thành mục tiêu của nó.”
Nhưng nó đặt ra câu hỏi: máy bay không người lái có thực sự bị khóa khỏi việc đưa ra các quyết định trái ngược với người điều khiển của nó không? Làm thế nào tự do để chọn và chọn mục tiêu của nó? Người điều hành có đồng ý với cuộc tấn công nhắm vào anh ta không? Điều đó không hợp lý trừ khi mục đích là để kiểm tra xem máy bay không người lái có thực sự thực hiện cuộc tấn công hay không (và theo những gì chúng tôi biết, AI vẫn không thể bịp bợm). Và tại sao máy bay không người lái không bị khóa cứng khi tấn công giao hữu?
Có rất nhiều câu hỏi xung quanh tất cả những điều này đến nỗi có vẻ như chiến lược tốt nhất là quy nó cho sự “thông tin sai lệch” của con người.
Tất nhiên, có nhiều cách để giảm thiểu một số vấn đề này. Không quân Hoa Kỳ đã chọn một điều hiển nhiên: đào tạo lại hệ thống AI để đưa ra trọng số tiêu cực cho bất kỳ cuộc tấn công nào nhắm vào người điều hành nó (từ những gì chúng tôi có thể thu thập được, hệ thống này dựa trên nguyên tắc học tập củng cố: nhận điểm khi làm những gì chúng tôi muốn, mất chúng khi bạn đừng).
Ngoại trừ nó không đơn giản. Điều đó không đơn giản bởi vì AI là theo nghĩa đen, thiếu “ý thức chung” và không có cùng mối quan tâm về đạo đức như con người. Điều đó không đơn giản bởi vì trong khi việc cấm máy bay không người lái giết người điều khiển của nó hoạt động như mong đợi (không giết người điều khiển nữa), hệ thống tiếp tục coi sự can thiệp của con người (và lệnh hủy bỏ của nó) làm giảm khả năng hoàn thành nhiệm vụ. Nếu AI muốn tối đa hóa “điểm số” của mình bằng cách phá hủy càng nhiều địa điểm SAM thù địch càng tốt, thì bất kỳ thứ gì không giúp nó đạt được mục tiêu tối đa hóa đó đều là mối đe dọa.
Khi việc giết người xử lý được chứng minh là không thể (do các bản cập nhật của hệ thống AI), giải pháp của nó chỉ đơn giản là tắt tín hiệu điều khiển và lệnh bằng cách vô hiệu hóa các tháp liên lạc thân thiện. Nếu bạn không thể giết người đưa tin, bạn sẽ giết thông điệp.
Tất nhiên, điều này cũng có thể được lập trình ngoài AI – nhưng vấn đề vẫn là bất kỳ sự củng cố tiêu cực nào cũng ngăn cản AI đạt được số điểm tối đa có thể đạt được. Đội chiếc mũ thiếc đặt riêng của tôi lên, bước tiếp theo khả thi đối với AI có thể là tìm các cách khác để cắt đứt kết nối của nó, cho dù sử dụng các khả năng tích hợp (ví dụ như gây nhiễu tín hiệu) hay thậm chí yêu cầu trợ giúp từ bên ngoài để vô hiệu hóa phần cứng liên quan. Thật khó để đánh giá phạm vi mà trò chơi mèo vờn chuột này cuối cùng sẽ kết thúc – một vấn đề mà các chuyên gia AI vẫn đang vật lộn cho đến ngày nay.
Có một lý do tại sao một số chuyên gia AI đã ký một bức thư ngỏ về cách AI nên được coi là một nỗ lực ở cấp độ “nguy cơ tuyệt chủng”. Và chúng tôi vẫn giữ cho đoàn tàu chạy hết tốc lực về phía trước.