Tác giả: Joseph S Nye Jr | The Strategist ngày 2 tháng 8 năm 2024
Biên dịch: Việt Hải | Dự án Đại Sự Ký Biển Đông

Con người là loài biết chế tạo công cụ, nhưng có thể kiểm soát được những công cụ mình tạo ra không? Khi Robert Oppenheimer và các nhà vật lý khác phát triển vũ khí phân hạch hạt nhân đầu tiên vào những năm 1940, họ lo ngại rằng phát minh của họ có thể hủy diệt nhân loại. Cho đến nay, điều đó vẫn chưa xảy ra, nhưng việc kiểm soát vũ khí hạt nhân vẫn là một thách thức dai dẳng kể từ đó.
Hiện nay, nhiều nhà khoa học coi trí tuệ nhân tạo—thuật toán và phần mềm cho phép máy móc thực hiện các nhiệm vụ thường đòi hỏi trí thông minh của con người—là một công cụ có khả năng thay đổi tương đương. Như các công nghệ đa năng trước đây, AI có tiềm năng to lớn cho cả mục đích tốt và xấu. Trong nghiên cứu ung thư, AI có thể phân loại và tóm tắt nhiều nghiên cứu hơn trong vài phút so với một nhóm người có thể làm trong nhiều tháng. Tương tự như vậy, AI có thể dự đoán đáng tin cậy cấu trúc cuộn gập protein mà các nhà nghiên cứu phải mất nhiều năm mới khám phá ra.
Nhưng AI cũng làm giảm chi phí và rào cản đối với những tác nhân xấu gây hại, kẻ khủng bố. Như một nghiên cứu gần đây của RAND đã cảnh báo, “chi phí cận biên để hồi sinh một loại vi-rút nguy hiểm tương tự như bệnh đậu mùa có thể chỉ là 100.000 đô la, trong khi việc phát triển một loại vắc-xin phức tạp có thể tốn hơn 1 tỷ đô la.”
Không chỉ vậy, một số chuyên gia lo ngại rằng AI tiên tiến sẽ thông minh hơn con người rất nhiều đến mức sẽ kiểm soát chúng ta, thay vì ngược lại. Ước tính về thời gian cần thiết để phát triển những cỗ máy siêu thông minh như vậy, được gọi là trí tuệ nhân tạo tổng quát, dao động từ vài năm đến vài thập kỷ. Nhưng dù kịch bản nào xảy ra, những rủi ro ngày càng tăng từ AI vẫn còn hạn hẹp ngày nay cũng đã đòi hỏi phải chú ý nhiều hơn.
Trong 40 năm, Nhóm Chiến lược Aspen (bao gồm các cựu quan chức chính phủ, học giả, doanh nhân và nhà báo) đã họp vào mỗi mùa hè để tập trung vào một vấn đề an ninh quốc gia lớn. Các phiên họp trước đã giải quyết các chủ đề như vũ khí hạt nhân, tấn công mạng và sự trỗi dậy của Trung Quốc. Năm nay, chúng tôi tập trung vào những tác động của AI đối với an ninh quốc gia, xem xét cả lợi ích cũng như rủi ro của nó.
Trong số những lợi ích của trí tuệ nhân tạo là năng lực phân loại dữ liệu tình báo khổng lồ, tăng cường hệ thống cảnh báo sớm, cải thiện hệ thống hậu cần phức tạp và kiểm tra mã máy tính để cải thiện an ninh mạng. Nhưng cũng có những rủi ro lớn, chẳng hạn như tiến bộ trong vũ khí tự động, lỗi vô tình trong thuật toán lập trình và AI đối địch có thể làm suy yếu an ninh mạng.
Trung Quốc đã đầu tư rất nhiều vào cuộc chạy đua AI vũ trang rộng lớn hơn và cũng tự hào về một số lợi thế về mặt cấu trúc. Ba nguồn lực chính cho AI là dữ liệu để đào tạo các mô hình; các kỹ sư thông minh để phát triển các thuật toán; và sức mạnh tính toán để chạy chúng. Trung Quốc có ít giới hạn về mặt pháp lý hoặc quyền riêng tư đối với quyền truy cập vào dữ liệu (mặc dù hệ tư tưởng hạn chế một số tập dữ liệu) và nước này có nhiều kỹ sư trẻ sáng giá. Lĩnh vực mà Trung Quốc tụt hậu nhất so với Hoa Kỳ là vi mạch tiên tiến tạo ra sức mạnh tính toán cho AI.
Các biện pháp kiểm soát xuất khẩu của Hoa Kỳ hạn chế quyền truy cập của Trung Quốc vào các vi mạch tiên tiến này, cũng như các máy in thạch bản đắt tiền của Hà Lan sản xuất chúng. Các chuyên gia tại Aspen đồng thuận rằng Trung Quốc chậm hơn Hoa Kỳ một hoặc hai năm; nhưng tình hình vẫn còn đáng lo ngại. Mặc dù Tổng thống Joe Biden và Chủ tịch Tập Cận Bình đã đồng ý tổ chức các cuộc thảo luận song phương về AI khi họ gặp nhau vào mùa thu năm ngoái, nhưng Aspen không mấy lạc quan về triển vọng kiểm soát vũ khí AI.
Vũ khí tự động gây ra mối đe dọa đặc biệt nghiêm trọng. Sau hơn một thập kỷ ngoại giao tại Liên Hợp Quốc, các quốc gia vẫn không đạt được nhất trí về lệnh cấm vũ khí sát thương tự động. Luật nhân đạo quốc tế yêu cầu quân đội phải phân biệt giữa lực lượng chiến đấu có vũ trang và dân thường, và Lầu Năm Góc từ lâu đã yêu cầu phải có con người trong vòng ra quyết định trước khi triển khai vũ khí. Nhưng trong một số bối cảnh, chẳng hạn như phòng thủ chống lại tên lửa đang bay tới, thì không có thời gian cho sự can thiệp của con người.
Vì bối cảnh rất quan trọng, con người phải định nghĩa chặt chẽ những gì vũ khí có thể và không thể làm. Nói cách khác, con người phải kiểm soát quá trình ra quyết định chứ không phải là một phần của quá trình a uýt định. Đây không chỉ là một câu hỏi suy đoán. Trong cuộc chiến tranh Ukraina, người Nga đã làm nhiễu tín hiệu của lực lượng Ukraina, buộc người Ukraina phải lập trình các thiết bị của họ để tự động đưa ra quyết định cuối cùng về thời điểm bắn.
Một trong những mối nguy hiểm đáng sợ nhất của AI là ứng dụng của nó vào chiến tranh sinh học hoặc khủng bố. Khi các quốc gia đồng ý cấm vũ khí sinh học vào năm 1972, niềm tin chung là những thiết bị như vậy không hữu ích, do nguy cơ phản tác dụng ở phía bên kia. Nhưng với sinh học tổng hợp, có thể phát triển một loại vũ khí chỉ tiêu diệt một nhóm người này mà không phải nhóm khác. Hoặc một tên khủng bố có thể tiếp cận phòng thí nghiệm chỉ muốn giết càng nhiều người càng tốt, như giáo phái tận thế Aum Shinrikyo đã làm ở Nhật Bản vào năm 1995. (Mặc dù giáo phái này sử dụng sarin, một chất không lây nhiễm, nhưng một giáo phái hiện đại tương đương có thể sử dụng AI để phát triển một loại vi-rút dễ lây lan.)
Trong trường hợp công nghệ hạt nhân, các quốc gia đã nhất trí vào năm 1968 về một hiệp ước không phổ biến vũ khí hạt nhân hiện có 191 thành viên. Cơ quan Năng lượng Nguyên tử Quốc tế thường xuyên kiểm tra các chương trình năng lượng trong nước để xác nhận rằng chúng chỉ được sử dụng cho mục đích hòa bình. Và bất chấp sự cạnh tranh gay gắt trong Chiến tranh Lạnh, các quốc gia hàng đầu về công nghệ hạt nhân đã nhất trí vào năm 1978 sẽ thực hiện kiềm chế trong việc xuất khẩu các cơ sở và kiến thức kỹ thuật nhạy cảm nhất. Tiền lệ như vậy gợi ý một số con đường cho AI, mặc dù có sự khác biệt rõ ràng giữa hai công nghệ này.
Một sự thật hiển nhiên là công nghệ phát triển nhanh hơn chính sách hoặc ngoại giao, đặc biệt là khi nó được thúc đẩy bởi sự cạnh tranh gay gắt trên thị trường trong khu vực tư nhân. Nếu có một kết luận quan trọng của cuộc họp Nhóm Chiến lược Aspen năm nay, thì đó là các chính phủ cần phải tăng tốc độ.
Joseph S Nye, Jr, đồng chủ tịch Nhóm Chiến lược Aspen, là cựu hiệu trưởng Trường Harvard Kennedy, cựu trợ lý bộ trưởng quốc phòng Hoa Kỳ. Cuốn sách gần đây nhất mà ông là tác giả là cuốn A Life in the American Century (Polity Press, 2024). Hoàng Việt Hải là cộng tác viên Dự án Đại Sự Ký Biển Đông. Có thể đọc bài viết gốc ở đây: https://www.aspistrategist.org.au/ai-and-national-security/
Nguyên tắc hoạt động của Dự án Đại Sự Ký Biển Đông.
—————
Dự án Đại Sự Ký Biển Đông tồn tại dựa trên tài trợ của cộng đồng. Nếu quý độc giả muốn có một nguồn thông tin tri thức khách quan, đa chiều, hệ thống hoá và có chiều sâu chuyên môn, dựa trên dữ liệu (facts-based), Dự án Đại Sự Ký Biển Đông là một địa chỉ mà mọi người có thể tin tưởng. Hãy chung tay cùng với chúng tôi duy trì Dự án bằng cách tài trợ cho Dự án, và khuyến khích bạn bè, đồng nghiệp cùng tài trợ Dự án. Xem hướng dẫn tài trợ ở đây: https://dskbd.org/tai-tro-cho-du-an/. Báo cáo tài chính sẽ được tổng kết vào cuối năm. Chúng tôi xin trân trọng cảm ơn.