Ngày 7/6, Google thông báo sẽ không sử dụng trí tuệ nhân tạo (AI) để ứng dụng trong phát triển vũ khí hay "do thám" để gây tổn hại trực tiếp cho con người, đồng thời công bố một loạt các nguyên tắc trong phát triển AI.
Trong bài viết vạch ra chính sách phát triển AI của Google, Giám đốc điều hành Sundar Pichai nhấn mạnh AI là công nghệ có tầm ảnh hưởng lớn và cần những nguyên tắc rõ ràng để đảm bảo việc sử dụng đúng cách. Các chương trình AI của Google sẽ được thiết kế để tạo ra các ứng dụng mang lại lợi ích xã hội và "tránh tạo ra những xu hướng bất bình đẳng."
Theo ông Pichai, các nguyên tắc cho việc ứng dụng AI bao gồm đảm bảo an toàn, đáng tin cậy đối với con người và tôn trọng các nguyên tắc về quyền riêng tư.
[Google sắp nhận án phạt kỷ lục hàng tỷ USD từ EU vì độc quyền Android]
Theo đó, Google sẽ tránh sử dụng các công nghệ "có khả năng gây tổn hại", đồng nghĩa với việc không phát triển "vũ khí hay các công nghệ mang mục đích gây thương tổn trực tiếp cho con người", cũng như các hệ thống "thu thập hay sử dụng thông tin nhằm mục đích theo dõi không phù hợp với quy tắc quốc tế". Ngoài ra, Google cũng sẽ cấm các công nghệ "đi ngược lại luật pháp quốc tế và quyền con người."
Tuy nhiên, "người khổng lồ" về công nghệ của Mỹ cũng cho biết sẽ tiếp tục hợp tác với chính phủ và quân đội trong các lĩnh vực như an ninh mạng, huấn luyện, cứu hộ.
Trước đó, Google đã phải hứng chịu nhiều chỉ trích vì hợp đồng ký kết với Lầu Năm Góc về Dự án Maven ứng dụng AI để phân biệt người và vật thể trong các video của máy bay không người lái, kể cả sự phản đối từ hàng nghìn nhân viên của họ.
Google mới đây đã thông báo sẽ không gia hạn hợp đồng trị giá 10 triệu USD này sau khi hợp đồng hết hạn.