Theo phóng viên TTXVN tại Washington, Facebook tuyên bố họ đã gỡ hàng triệu bài đăng trong ba tháng qua vì vi phạm chính sách trong việc sử dụng ngôn từ kích động thù địch và bóc lột trẻ em, đánh dấu sự gia tăng về số lượng các bài đăng bị gỡ bỏ trong bối cảnh công ty truyền thông xã hội này tăng cường việc xem xét kỹ lưỡng các chính sách của họ đối với mạng xã hội.
Báo cáo minh bạch mới nhất của Facebook vừa được công bố đã giải thích chi tiết hơn bao giờ hết về các bài đăng mà công ty đang gỡ bỏ khỏi mạng xã hội cũng như trên nền tảng chia sẻ hình ảnh phổ biến Instagram của họ.
Theo báo cáo, từ tháng 7-9/2019, Facebook đã có hành động chống lại 11,6 triệu bài đăng, hình ảnh hoặc video liên quan đến việc mô tả hành vi bóc lột tình dục trẻ em, 7 triệu bài sử dụng ngôn từ kích động thù địch, 3,2 triệu bài vi phạm bắt nạt hoặc quấy rối và 5,2 triệu bài chia sẻ tuyên truyền khủng bố. Facebook hiện có hơn 2,4 tỷ người tham gia.
Trên nền tảng Instagram trong khoảng thời gian đó, công ty này cũng đã có hành động chống lại 754.000 bài đăng liên quan đến việc lạm dụng trẻ em và 133.000 bài đăng vi phạm chính sách của mình chống lại nội dung liên quan đến khủng bố.
[Facebook đầu tư 'khủng' vào AI nhằm phát hiện nội dung cấm]
Báo cáo minh bạch của Facebook đã không nêu chi tiết số lượng bài đăng bị xóa khỏi Instagram vì vi phạm chính sách chống lại phát ngôn thù địch hoặc quấy rối. Instagram hiện có khoảng 1 tỷ người tham gia.
Trả lời báo chí, Giám đốc điều hành Facebook Mark Zuckerberg đã công kích các đối thủ của mình bao gồm Twitter và Google's YouTube khi "ngầm" cho rằng các công ty này không cung cấp các báo cáo minh bạch với cùng mức độ chi tiết.
Ông Zuckerberg cho rằng những con số khổng lồ được báo cáo cho thấy Facebook đang "làm việc chăm chỉ hơn" so với các công ty khác để xác định, gỡ xuống và đưa ra chi tiết về các quyết định nội dung đó.
Lần đầu tiên, báo cáo minh bạch của Facebook đưa ra số liệu thống kê về số lượng bài đăng liên quan đến tự tử và tự làm hại bị gỡ xuống hoặc hạn chế. Facebook đã xóa 2,5 triệu bài đăng mô tả hoặc khuyến khích tự tử hoặc tự làm hại mình, trong khi họ cũng đã xóa khoảng 845.000 bài đăng với nội dung tương tự khỏi nền tảng Instagram.
Các lãnh đạo của Facebook nhấn mạnh công ty truyền thông xã hội này đang đi theo một đường lối tốt đẹp khi họ tìm cách theo dõi các bài đăng về các vấn đề sức khỏe thần kinh từ những người trải qua quá trình phục hồi và những người có thể khiến người dùng khác tự làm tổn thương mình.
Ông Zuckerberg cũng cho biết thêm rằng Facebook đang đầu tư hàng tỷ USD và dành hơn 35.000 nhân viên để giải quyết "an toàn" trên nền tảng này. Trong nhiều năm, Facebook đã phải hứng chịu nhiều chỉ trích về một số nội dung liên quan đến việc gây rối và đôi khi bạo lực tràn lan trên nền tảng, ngay cả khi công ty tiếp tục thắt chặt các chính sách kiểm duyệt nội dung.
Báo cáo mới nhất của Facebook được đưa ra khi các nhà lập pháp tại Quốc hội Mỹ ngày càng dấy lên nỗi ám ảnh về việc Facebook sẽ phải chịu trách nhiệm pháp lý đối với những nội dung được đăng trên nền tảng của họ.
Các công ty truyền thông xã hội như Facebook và Twitter hiện tại đang được bảo vệ khỏi hầu hết các vụ kiện liên quan đến các bài đăng và hình ảnh lưu hành trên mạng của họ nhờ vào một điều khoản trong luật năm 1996.
Tuy nhiên, các nhà lập pháp đã cảnh báo rằng họ có thể điều chỉnh điều khoản đó, được gọi là Mục 230, để đảm bảo các công ty truyền thông xã hội có trách nhiệm pháp lý trong việc xóa bài đăng của những kẻ khủng bố, ấu dâm hoặc tội phạm.
Facebook sử dụng kết hợp đánh giá của con người và trí tuệ nhân tạo để xác định nội dung vi phạm. Họ nói rằng các hệ thống tự động đó đang ngày càng được cải thiện.
Facebook xác định hầu hết nội dung mà họ xóa bằng phần mềm. Trong một bài viết vào ngày 13/11, Guy Rosen - Phó Chủ tịch phụ trách các vấn đề liêm chính và minh bạch của Facebook - nhấn mạnh mặc dù công ty đang hài lòng với tiến bộ này nhưng những công nghệ đó không hoàn hảo và công ty của ông biết rằng những sai lầm vẫn có thể xảy ra./.