Giám đốc Tập đoàn công nghệ Google Sundar Pichai nhận định những lo ngại về trí tuệ nhân tạo (AI) là có cơ sở, song cho rằng ngành công nghệ có nhiệm vụ phải vượt qua thách thức này bằng cách tự điều chỉnh.
Trả lời phỏng vấn báo Washington Post của Mỹ ngày 12/12, ông Pichai nhấn mạnh các công ty công nghệ xây dựng AI nên tính tới khía cạnh đạo đức ngay từ ban đầu khi bắt tay vào tiến trình này để chắc chắn rằng AI với "công dụng của riêng mình" không làm tổn hại tới con người.
Hồi tháng Sáu năm nay, Google đã công bố một bộ quy tắc AI nội bộ, trong đó đầu tiên là AI cần có ích cho xã hội.
Google cam kết không thiết kế hoặc phát triển AI sử dụng làm vũ khí, giám sát vượt ngoài các quy tắc quốc tế, hoặc liên quan tới công nghệ nhằm xâm phạm quyền con người.
[Mỹ vẫn cáo buộc Trung Quốc tiếp tục đánh cắp bí mật công nghệ]
Trong nỗ lực phát triển công nghệ này, Google cũng lên kế hoạch tiếp tục phối hợp với quân đội và các chính phủ trong các lĩnh vực an ninh mạng, đào tạo, tuyển dụng nhân sự, chăm sóc sức khỏe, cũng như tìm kiếm, cứu nạn.
Google, đặt trụ sở tại California, hiện đi đầu thế giới về phát triển AI và đang cạnh tranh trong lĩnh vực phần mềm thông minh với các "ông lớn công nghệ" khác như Amazon, Apple, Microsoft, IBM và Facebook.
AI hiện được sử dụng để nhận diện người trong các bức ảnh, lọc những nội dung không phù hợp khỏi các nền tảng mạng trực tuyến và kích hoạt các phương tiện ô tô tự lái.
Tuy nhiên, những năng lực ngày càng gia tăng của AI đang gây nhiều tranh cãi về những tác động đến xã hội và đạo đức...
Trước đó, nhà khoa học nổi tiếng Stephen Hawking cũng từng nhận định việc tạo ra AI thành công có thể là sự kiện tuyệt vời nhất trong lịch sử nền văn minh, nhưng cũng có thể là "sự kiện tồi tệ nhất," nếu xã hội không tìm cách kiểm soát sự phát triển của nó.
Ông cảnh báo khi vượt ngoài tầm kiểm soát, AI có thể thành một loại vũ khí tự trị mạnh mẽ hoặc biến đổi thành công cụ mới để người áp bức người nhiều hơn, gây ra sự gián đoạn lớn đối với nền kinh tế./.