Hội nghị Thượng đỉnh An toàn Trí tuệ Nhân tạo (AI) đầu tiên do Vương quốc Anh chủ trì, diễn ra tại Bletchley Park từ ngày 1-2/11 vừa qua, đã thu hút được sự chú ý lớn của dư luận về việc làm thế nào để khu vực công và tư nhân quản lý, phát triển AI một cách an toàn, trong bối cảnh các mô hình AI nở rộ, với hiệu năng kinh ngạc chỉ trong vòng một thời gian rất ngắn, đặt ra nhiều rủi ro tiềm ẩn nếu không được kiểm soát ở cấp độ toàn cầu.
Chia sẻ với phóng viên TTXVN tại Vương quốc Anh, Tiến sỹ Hồ Quốc Tuấn, giảng viên cao cấp Đại học Bristol (Vương quốc Anh) nêu ra một số điểm đáng chú ý về kết quả của hội nghị, nhấn mạnh các nước sẽ phải hướng tới có những bộ luật về AI để kiểm soát các rủi ro khi AI có ảnh hưởng ngày càng lớn đến toàn xã hội.
Theo Tiến sỹ Hồ Quốc Tuấn, đa số các nền kinh tế lớn và đi đầu trong công nghệ AI như Mỹ và Liên minh châu Âu (EU) đều bày tỏ quan điểm ủng hộ việc cần có một khuôn khổ toàn cầu để kiểm soát rủi ro do AI.
Điều này, bề ngoài tưởng có vẻ tiêu cực nhưng thực tế lại phản ánh một khía cạnh khác: Tốc độ phát triển của AI và sự ủng hộ rộng khắp với các ứng dụng AI đã vượt qua giai đoạn nghi ngờ và lo ngại của vài năm trước để tiến lên một giai đoạn phát triển mới nên các nhà quản lý cần nghĩ tới chuyện kiểm soát các rủi ro từ AI.
Về mô hình phát triển và chia sẻ các công nghệ mới nhất liên quan AI, theo Tiến sỹ Hồ Quốc Tuấn, vấn đề đặt ra là nên là chia sẻ mã nguồn mở hay là duy trì một dạng “AI đóng.”
Một số công ty công nghệ lớn như Meta (công ty mẹ của Facebook) và những nền tảng khởi nghiệp như Hugging Face và Stability AI đang chia sẻ mã nguồn mở của các mô hình thuật toán AI trong khi OpenAI, Microsoft và Google lại là ủng hộ sử dụng các “AI đóng,” không chia sẻ nhiều về các mô hình và thuật toán của mình.
Theo Tiến sỹ Hồ Quốc Tuấn, đây là một vấn đề vẫn còn gây tranh cãi mà có lẽ sẽ còn kéo dài trong tương lai.
[Tuyên bố Bletchley chính thức mở ra chương mới trong quản lý AI]
Điều này là do những công ty đi sau và các nước đang phát triển muốn bắt kịp và muốn mã nguồn mở cho mọi thứ còn những công ty và các nước đi đầu muốn giữ bí mật công nghệ làm lợi thế sau khi bỏ rất nhiều tiền để đầu tư. Hơn nữa, mã nguồn mở cũng tạo ra rủi ro bị khai thác lỗ hổng.
Tiến sỹ Hồ Quốc Tuấn cũng đưa ra nhận định về việc khuôn khổ luật để kiểm soát các hoạt động liên quan đến AI nên được đưa ra khi nào và nên “chặt” đến đâu.
Ông đề cập việc EU đang sắp công bố luật về AI trong khi Anh không quá gấp gáp khi cho rằng với tốc độ phát triển hiện tại của AI, các luật đưa ra ngày nay có thể lỗi thời nhưng cũng thừa nhận rồi sẽ đến lúc phải có một bộ luật về AI.
Chẳng hạn như Mỹ dù "cởi mở" hơn với AI nhưng cũng đã ra quy định các công ty công nghệ lớn phải nộp báo cáo về các kết quả kiểm tra hệ thống AI lớn với chính phủ trước khi triển khai rộng rãi.
Các mô hình và ứng dụng AI có tầm ảnh hưởng đến toàn xã hội sẽ bị kiểm soát ở một mức độ nhất định và không còn có thể thoải mái bùng nổ nữa.
Theo Tiến sỹ Hồ Quốc Tuấn, một số quốc gia dường như muốn vượt lên giữ vai trò chi phối trong việc ra các quy chuẩn kiểm soát AI trên toàn cầu, có thể thấy rõ điều này ở Mỹ và khối EU.
Các hội nghị thượng đỉnh về AI toàn cầu sẽ được tổ chức thường xuyên hơn, sắp tới là ở Hàn Quốc và Pháp.
Các nước trên thế giới nên tham gia vào những hội nghị này để tranh thủ lợi ích và góp tiếng nói vào các định hướng chung của toàn cầu.
Ngoài ra, cũng giống như với các hội nghị thượng đỉnh về biến đổi khí hậu, thông những hội nghị Ai, các bên sẽ đạt được nhận thức chung và hiểu hơn về thực tiễn của lĩnh vực này để có sự chuẩn bị phù hợp./.