Những nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của Trí tuệ Nhân tạo (AI) đồng nghĩa với việc các biện pháp bảo vệ cần phải được tích hợp vào hệ thống ngay từ đầu, thay vì tìm cách xử lý hậu kỳ.
Trên đây là nhận định của bà Jen Easterly - Giám đốc Cơ quan An ninh Mạng và An ninh Cơ sở hạ tầng Mỹ - trong cuộc làm việc với Giám đốc Trung tâm An ninh mạng Canada Sami Khoury.
Phát biểu với báo giới sau cuộc hội đàm tại Ottawa (Canada) ngày 27/11, bà Easterly nêu rõ: "Chúng ta đã bình thường hóa một thế giới, nơi mà các sản phẩm công nghệ ra đời với một tá lỗ hổng và sau đó người tiêu dùng được kỳ vọng sẽ là người 'vá' những lỗ hổng đó. Chúng ta không thể sống trong thế giới đó với công nghệ AI. Công nghệ này quá mạnh và phát triển quá nhanh."
Đức, Pháp và Italy đạt thỏa thuận về quản lý trí tuệ nhân tạo trong tương lai
Chính phủ Đức, Pháp và Italy ủng hộ các cam kết tự nguyện ràng buộc đối với tất cả các nhà cung cấp AI lớn và nhỏ ở EU, thay vì chỉ áp dụng đối với các nhà cung cấp AI lớn như đề xuất trước đó của EP.
Quan chức Mỹ cho biết các cơ quan từ 18 quốc gia, bao gồm cả Mỹ, đã tán thành các khuyến nghị do Anh soạn thảo về an ninh mạng liên quan AI, trong đó đề cập việc thiết kế, phát triển và sử dụng công nghệ này một cách an toàn.
Đầu tháng này, các nhà phát triển AI hàng đầu trên thế giới đã nhất trí hợp tác với các chính phủ thử nghiệm mọi mô hình AI trước khi chính thức phát hành, nhằm quản lý nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của công nghệ này.
Bà Easterly đánh giá các nước trên thế giới hiện đã nỗ lực tối đa, gắn kết với công ty công nghệ nhằm phát triển các công nghệ theo cách an toàn nhất có thể./.