Facebook đã xóa hơn 6,5 tỷ tài khoản giả nhờ một chương trình máy học mới được thiết kế để "đánh hơi" các vụ lừa đảo.
Gã khổng lồ truyền thông xã hội hiện có hơn 2,89 tỷ người dùng hàng tháng, trong đó ước tính 5% là tài khoản giả.
Để giúp xác định các tài khoản lừa đảo, công ty truyền thông xã hội lớn nhất thế giới đã phát triển một hệ thống được gọi là "Deep Entity Classification" (DEC), một chương trình máy tính được trang bị khả năng học máy trí tuệ nhân tạo (AI) để phân tích tài khoản người dùng, giúp phát hiện các tài khoản giả mạo tiềm tàng.
Facebook tuyên bố đã phát hiện được khoảng 99,5% tài khoản giả, thường là trước khi những người dùng khác đánh dấu, báo cáo các tài khoản bị nghi vấn.
Chương trình hoạt động bằng cách phân tích số lượng tài khoản khác mà người dùng kết nối với, cũng như bất kỳ nhóm và trang nào họ có thể thích hoặc theo dõi.
[CEO Zuckerberg: Nội dung trên Facebook nên được quản lý]
Sau đó, chương trình sẽ đánh giá hoạt động hàng ngày của người dùng để tìm bằng chứng lừa đảo, chẳng hạn như gửi cùng một liên kết đến quảng cáo bán kính râm cho hàng trăm hoặc hàng nghìn người.
Ý tưởng tổng thể của chương trình là không chỉ đánh giá các tài khoản cá nhân mà còn nhìn vào cách họ tương tác với những người bạn và lần lượt xem xét cách những người bạn đó tương tác với các nhóm của họ.
Hồi tháng 11/2019, Facebook khẳng định phần mềm AI kiểm soát nội dung của họ đang ngày càng thành thạo hơn trong việc kiểm soát nội dung bị cấm trên mạng xã hội.
Giám đốc điều hành Facebook Mark Zuckerberg cho biết tập đoàn có hơn 35.000 người làm việc trong lĩnh vực an toàn - bảo mật và mỗi năm Facebook chi hàng tỷ USD cho bộ phận này.
Ông Zuckerberg cho rằng những nỗ lực của Facebook đang được đền đáp, khi hệ thống được xây dựng để giải quyết những vấn đề về an toàn và bảo mật đạt được tiến triển tích cực.
Hiện phần mềm Facebook tự động phát hiện khoảng 80% nội dung cần xóa. Đây là bước tiến lớn so với cách đây hai năm, thời điểm gần như tất cả nội dung không được xử lý cho đến khi nhận được báo cáo từ người dùng./.