OpenAI, công ty nghiên cứu Trí tuệ Nhân tạo (AI) có trụ sở tại San Francisco (Mỹ), xác nhận đã giải thể nhóm chuyên đánh giá những mối nguy hiểm lâu dài từ AI tạo sinh.
Quyết định này được đưa ra trong bối cảnh công nghệ AI ngày càng phải đối mặt với sự giám sát chặt chẽ hơn từ các cơ quan quản lý và những lo ngại về tính an toàn gia tăng.
Nhóm nghiên cứu có tên "Siêu điều chỉnh" bắt đầu được giải thể từ vài tuần trước và các thành viên được phân bổ sang các dự án cũng như chương trình nghiên cứu khác của OpenAI.
Trong khi đó, nhà đồng sáng lập OpenAI Ilya Sutskever và đồng lãnh đạo nhóm Jan Leike tuyên bố rời công ty.
Trong một tuyên bố, Giám đốc Điều hành OpenAI, Sam Altman, cho biết công ty vẫn cam kết nghiên cứu an toàn AI. Ông khẳng định sẽ cung cấp thêm thông tin về vấn đề này trong những ngày tới.
Đầu tuần này, OpenAI đã công bố một phiên bản công nghệ AI có hiệu suất cao hơn và thậm chí giống con người hơn, làm nền tảng cho ChatGPT. Phiên bản này được cung cấp miễn phí cho tất cả người dùng.
Tương lai của AI vẫn còn là chủ đề tranh luận sôi nổi. Một số chuyên gia tin rằng AI tạo sinh có tiềm năng mang lại lợi ích to lớn cho nhân loại, trong khi những người khác lo ngại về những rủi ro tiềm ẩn.
AI đã được đặt lên hàng đầu trong chương trình nghị sự của Liên hợp quốc sau những tiến bộ nhanh chóng gần đây. Năm 2023, Tổng Thư ký Liên hợp quốc Antonio Guterres đã triệu tập Ban cố vấn cấp cao mới về AI để đưa ra các khuyến nghị khẩn cấp về quản trị AI trên toàn cầu.
Công việc của Ban cố vấn cấp cao là hỗ trợ các cuộc đàm phán về Hiệp ước tương lai của Liên hợp quốc và Hiệp ước kỹ thuật số toàn cầu kèm theo, sẽ được công bố tại Hội nghị thượng đỉnh tương lai của Liên hợp quốc vào tháng 9/2024.
Những điều này sẽ đặt ra cách tiếp cận của cộng đồng quốc tế đối với những thách thức phát sinh từ AI và các công nghệ kỹ thuật số khác.
Tháng 7/2023, Hội đồng Bảo an Liên hợp quốc cũng đã tổ chức cuộc họp chính thức đầu tiên về AI để thảo luận về tác động của AI đối với hòa bình và an ninh quốc tế.
Tổng Thư ký Liên hợp quốc Guterres đã ủng hộ lời kêu gọi từ một số quốc gia và chuyên gia công nghệ nhằm thiết lập một hiệp ước AI toàn cầu hoặc cơ quan mới của Liên hợp quốc để quản lý AI.
Tổng thư ký cũng khuyến khích các quốc gia tham gia vào các quy trình đa phương liên quan đến các ứng dụng quân sự của AI và thống nhất về các khuôn khổ toàn cầu để quản lý AI.
Động lực này được xây dựng dựa trên một số quy trình và diễn đàn của Liên hợp quốc đã và đang xem xét cách tốt nhất để quản lý và điều chỉnh AI.
Hội nghị thượng đỉnh về an toàn AI của Vương quốc Anh vào tháng 11/2023 là sáng kiến toàn cầu đầu tiên quy tụ các chính phủ, các công ty AI hàng đầu, các nhóm xã hội dân sự và các chuyên gia nghiên cứu để cân nhắc về những rủi ro và lợi ích tiềm tàng của AI.
Một trong những kết quả đáng chú ý của hội nghị là Tuyên bố Bletchley, một tuyên bố chung được 28 quốc gia thông qua, bao gồm Mỹ, Vương quốc Anh, Ấn Độ, Liên minh châu Âu (EU) và Trung Quốc.
Tuyên bố khẳng định trách nhiệm của các nhà phát triển AI trong việc đảm bảo an toàn và bảo mật cho hệ thống của họ, cam kết hợp tác quốc tế trong nghiên cứu an toàn AI và kêu gọi thiết lập các nguyên tắc chung để phát triển và triển khai AI.
Các hội nghị thượng đỉnh tiếp theo sẽ được tổ chức tại Hàn Quốc và Pháp vào cuối năm 2024. Ngoài ra, việc xây dựng các quy định quản lý AI cũng được hình thành trên cơ sở các cơ chế hợp tác đang được thực hiện để định hình việc quản trị AI toàn cầu.
Các nhà lãnh đạo Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7) đã công bố Nguyên tắc hướng dẫn quốc tế về AI và Quy tắc ứng xử tự nguyện dành cho các nhà phát triển AI vào tháng 10/2023, đáng chú ý là Quy trình AI G7 Hiroshima.
Nhóm Bộ Tứ, bao gồm Mỹ, Nhật Bản, Australia và Ấn Độ, đã đưa ra các nguyên tắc riêng của mình về AI vào năm 2024.
Trong khi đó, Đạo luật AI của EU được Nghị viện châu Âu chính thức thông qua sẽ thiết lập khuôn khổ toàn diện đầu tiên trên thế giới để điều chỉnh việc phát triển và sử dụng AI, tập trung vào đánh giá rủi ro và sự minh bạch.
Với việc các quốc gia hướng tới những mô hình quản trị AI phù hợp với hệ thống chính trị và xã hội hiện tại của họ, có thể thấy bối cảnh AI toàn cầu ngày càng bị phân mảnh, với các khu vực và khối khác nhau tuân thủ các quy tắc và chuẩn mực riêng biệt.
Internet mở và miễn phí đang gặp khó khăn và AI có khả năng thúc đẩy sự phân mảnh này. Điều này gây ra những rủi ro đáng kể, có khả năng cản trở hợp tác quốc tế, làm trầm trọng thêm những căng thẳng địa chính trị hiện có và tạo ra những rào cản đối với sự đổi mới./.
OpenAI giải thể nhóm nghiên cứu về rủi ro của trí tuệ nhân tạo tạo sinh
Giám đốc điều hành OpenAI, Sam Altman, cho biết công ty vẫn cam kết nghiên cứu an toàn trí tuệ nhân tạo (AI) và hứa sẽ cung cấp thêm thông tin về việc giải thể nhóm nghiên cứu rủi ro về AI.