Xu hướng hợp tác quốc tế bảo đảm an toàn đối với trí tuệ nhân tạo
Trong thời đại công nghệ ngày nay, trí tuệ nhân tạo (AI) đang trở thành một yếu tố quan trọng trong các lĩnh vực từ sản xuất đến an ninh quốc gia. Tuy nhiên, sức mạnh của AI cũng mang lại những nguy cơ đặc biệt đối với an ninh và xã hội. Để đối phó với những thách thức này và khai thác AI một cách có hiệu quả nhất, nhiều nước hàng đầu thế giới đã hợp tác thông qua các thỏa thuận song phương.
Hoa Kỳ và Anh vừa tiên phong trong việc phát triển các hướng dẫn và thỏa thuận mới về an toàn AI, bảo mật trong lĩnh vực, được công bố bởi Cơ quan An ninh mạng và Cơ sở hạ tầng Hoa Kỳ (CISA) cùng với Trung tâm An ninh mạng Quốc gia Vương quốc Anh (NCSC), với sự ủng hộ của 16 quốc gia khác. Thỏa thuận này không chỉ là một bước quan trọng trong việc đảm bảo an ninh mạng mà còn là sự cam kết của hai quốc gia hàng đầu thế giới trong việc thúc đẩy hợp tác quốc tế để đối phó với các thách thức về an toàn và bảo mật trong lĩnh vực AI. Thỏa thuận này nhấn mạnh vào việc thúc đẩy việc thử nghiệm các mô hình AI tiên tiến và đối phó với các nguy cơ mà AI có thể mang lại đối với an ninh quốc gia và xã hội.
Hoa Kỳ và Anh sẽ hợp tác trong việc thúc đẩy việc thử nghiệm các mô hình AI tiên tiến, lấy cảm hứng từ cam kết được đưa ra tại Hội nghị cấp cao về an toàn AI đầu tiên trên thế giới tại Anh vào tháng 11/2023. Thỏa thuận này cũng tạo điều kiện cho viện nghiên cứu của cả hai quốc gia tăng cường hợp tác để đối phó với các rủi ro liên quan đến an ninh quốc gia mà công nghệ AI có thể gây ra. Hoa Kỳ và Anh dự định tổ chức ít nhất một cuộc diễn tập thử nghiệm chung trên một mô hình AI có thể tiếp cận công khai. Đồng thời, họ cũng sẽ xem xét việc trao đổi nhân sự giữa các viện nghiên cứu, và chia sẻ thông tin quan trọng về năng lực và rủi ro của các mô hình và hệ thống AI, cũng như nghiên cứu kỹ thuật về an toàn và bảo mật AI.
Thỏa thuận đưa ra một khung thức chi tiết về cách bảo đảm rằng công nghệ AI được sử dụng một cách an toàn. Được thực hiện với sự hợp tác của các chuyên gia từ các công ty công nghệ hàng đầu như Google, Amazon, OpenAI, Microsoft và các tổ chức quốc tế khác, đây là tài liệu đầu tiên nhấn mạnh về việc thiết lập một hệ thống thống nhất và hiểu biết chung về các rủi ro liên quan đến AI, cùng với chiến lược giảm thiểu hiệu quả. Hướng dẫn này áp dụng cho mọi nhà cung cấp hệ thống sử dụng AI, bao gồm cả những hệ thống được xây dựng từ đầu và những hệ thống được xây dựng dựa trên công cụ và dịch vụ của bên thứ ba. Bằng việc thực hiện các nguyên tắc này, nhà cung cấp có thể xây dựng các hệ thống AI hoạt động như dự định, sẵn sàng khi cần và hoạt động mà không tiết lộ dữ liệu nhạy cảm cho bất kỳ bên nào không được ủy quyền. Ngoài Hoa Kỳ và Anh, các quốc gia khác ủng hộ bao gồm: Úc, Canada, Chile, Cộng hòa Séc, Estonia, Pháp, Đức, Israel, Italia, Nhật Bản, New Zealand, Nigeria, Na Uy, Ba Lan, Singapore và Hàn Quốc.
Mặc dù thỏa thuận này không mang tính ràng buộc, nó cung cấp các khuyến nghị chung như giám sát hành vi lạm dụng của hệ thống AI, bảo vệ dữ liệu khỏi các nhà cung cấp phần mềm giả mạo và kiểm tra. Tuy nhiên, điều quan trọng là nhiều quốc gia đã nhấn mạnh rằng hệ thống AI cần được thiết kế an toàn từ đầu, đảm bảo an ninh ngay từ giai đoạn thiết kế công nghệ.
Giám đốc điều hành của NCSC, bà Lindy Cameron, nhấn mạnh sự cần thiết của hành động phối hợp quốc tế giữa các chính phủ và ngành công nghiệp để bảo đảm rằng bảo mật là yêu cầu cốt lõi xuyên suốt trong quá trình phát triển công nghệ. Những hướng dẫn này đánh dấu một bước quan trọng trong việc hình thành sự hiểu biết chung, mang tính toàn cầu về các chiến lược giảm thiểu và rủi ro mạng xung quanh AI, nhằm bảo đảm rằng công nghệ này được sử dụng một cách an toàn.
Thỏa thuận này không chỉ là nỗ lực của Hoa Kỳ và Anh mà còn là phần của sự nỗ lực tổng thể để thúc đẩy an toàn AI trên toàn cầu. Đây được xem là một bước tiến quan trọng trong việc đối phó với các thách thức và nguy cơ mà công nghệ AI mang lại.
Tháng 1/2024, Nhật Bản và Hoa Kỳ cũng đã ký kết hợp tác nghiên cứu về AI áp dụng cho máy bay không người lái. Trong bối cảnh thách thức an ninh ngày càng nổi lên và nhằm nâng cao khả năng chiến đấu, Nhật Bản và Hoa Kỳ đã tiến xa hơn trong hợp tác quốc phòng của họ bằng việc đạt thỏa thuận về nghiên cứu chung về AI áp dụng cho máy bay không người lái. Với sự hợp tác này, hai quốc gia này đang hướng đến một bước đột phá trong công nghệ quốc phòng, với mục tiêu cải thiện khả năng tác chiến và thông tin tình báo của hệ thống máy bay chiến đấu. AI và máy học tiên tiến sẽ là nguồn động viên cho sự đổi mới trong lĩnh vực chiến đấu trên không. Mục tiêu của dự án nghiên cứu chung này là "cách mạng hóa hoạt động tác chiến trên không bằng cách kết hợp AI và công nghệ máy học tối tân với các phương tiện bay không người lái tiên tiến". Dự án dự kiến sẽ tập trung vào việc áp dụng AI phát triển vào máy bay không người lái, nhằm tối ưu hóa khả năng hoạt động đồng bộ với máy bay chiến đấu thế hệ tiếp theo của Nhật Bản. Điều này không chỉ mở ra cánh cửa cho việc cải thiện hiệu suất chiến đấu, mà còn giúp duy trì "lợi thế công nghệ" của liên minh quốc phòng Nhật-Hoa Kỳ. Nhìn chung, thỏa thuận nghiên cứu chung về AI giữa Nhật Bản và Hoa Kỳ không chỉ là một bước quan trọng trong việc phát triển công nghệ quốc phòng mà còn là một biểu tượng cho sự đoàn kết và tương tác sâu rộng trong quan hệ liên minh. Hợp tác này không chỉ mở ra những cơ hội mới về chiến lược quốc phòng mà còn là một bước quan trọng để duy trì và phát triển "lợi thế công nghệ" của Nhật-Hoa Kỳ, thể hiện cam kết chung trong việc đối mặt với những thách thức an ninh hiện đại.
Trước đó, Đức, Pháp và Italia cũng đã đạt được thỏa thuận về các quy định quản lý AI vào ngày 19/11/2023. Thỏa thuận này dự kiến sẽ đẩy nhanh các cuộc đàm phán về AI ở cấp độ châu Âu. Chính phủ ba nước ủng hộ các cam kết tự nguyện ràng buộc đối với tất cả các nhà cung cấp AI lớn và nhỏ ở Liên minh châu Âu, thay vì chỉ áp dụng đối với các nhà cung cấp AI lớn như đề xuất trước đó của Nghị viện châu Âu. Ba nước này cho rằng việc phân biệt những quy định theo quy mô của các nhà cung cấp AI sẽ tạo cạnh tranh không bình đẳng với lợi thế nghiêng về các nhà cung cấp AI nhỏ. Vì thế, cả Đức, Pháp và Italia cùng cho rằng những quy tắc ứng xử và tính minh bạch phải có tính ràng buộc đối với tất cả các đối tượng khác nhau. Các nhà phát triển mô hình nền tảng sẽ phải xác định thẻ mô hình, được sử dụng để cung cấp thông tin về mô hình học máy. Các thẻ mô hình sẽ bao gồm thông tin liên quan để hiểu chức năng của mô hình, khả năng cũng như giới hạn của nó và sẽ dựa trên các phương pháp hay nhất trong cộng đồng nhà phát triển. Một cơ quan quản lý AI có thể giúp phát triển các hướng dẫn và có thể kiểm tra việc áp dụng các thẻ mẫu. Đặc biệt, thỏa thuận về quản lý AI của Đức, Pháp và Italia không quy định ngay các biện pháp trừng phạt. Hệ thống xử phạt sẽ chỉ được thiết lập sau khi phát hiện các trường hợp vi phạm quy tắc ứng xử sau một thời gian nhất định. Trong tương lai, một cơ quan có thẩm quyền của châu Âu sẽ chịu trách nhiệm giám sát việc tuân thủ các tiêu chuẩn đề ra. Hiện tại, các cơ quan của Liên minh châu Âu đang đàm phán về cách thức quản lý AI ở cấp độ khu vực.
Trong bối cảnh sự phát triển không ngừng của AI, việc bảo đảm an toàn và bảo mật trong việc áp dụng công nghệ này trở nên cực kỳ quan trọng. Thỏa thuận giữa Hoa Kỳ và Anh, cùng những sự hợp tác và cam kết từ các quốc gia khác, đã tạo ra một cơ sở vững chắc cho việc phát triển các nguyên tắc và hướng dẫn bảo mật AI toàn cầu. Bằng cách thúc đẩy việc thực thi các nguyên tắc "An toàn ngay từ thiết kế" và "An toàn theo mặc định", cũng như việc tăng cường hợp tác quốc tế trong nghiên cứu và giám sát, các nước có thể tạo ra một môi trường sử dụng AI một cách an toàn, minh bạch và đáng tin cậy. Điều này không chỉ giúp tăng cường an ninh mạng mà còn thúc đẩy sự phát triển và ứng dụng của công nghệ AI, mang lại lợi ích to lớn cho xã hội và kinh tế toàn cầu.
https://khoahocphattrien.vn (tnxmai)