Những người kiểm duyệt nội dung độc hại cho Facebook nhận được 52 triệu USD tiền đền bù thiệt hại về tinh thần mà họ phải chịu khi xem các nội dung độc hại của nền tảng này.
Nhóm xem nội dung độc hại cho Facebook nhận 52 triệu USD
Facebook không thể công bố số bài đăng của 1,7 tỷ người dùng mỗi ngày. Ảnh: Getty.
Ngày 8/5, Facebook cho biết đã chi 52 triệu USD để đền bù thiệt hại về tinh thần cho đội ngũ kiểm duyệt viên phải xem các video độc hại trên nền tảng của họ.
Năm 2018, các nhà thầu bên thứ ba của công ty cho biết Facebook đã không bảo vệ họ đúng cách trước các tổn thương nghiêm trọng về tâm lý khi phải tiếp xúc với các nội dung ấu dâm, chặt đầu, khủng bố, ngược đãi động vật...
Theo Tòa án Tối cao California, Facebook phải đền bù 1.000 USD cho mỗi vụ kiện. Những người được chẩn đoán mắc các bệnh tâm lý liên quan đến công việc kiểm duyệt phải điều trị y tế với thiệt hại 50.000 USD.
Mạng xã hội này cũng cho biết đầu tư hàng chục triệu USD vào tuệ nhân tạo phát hiện ngôn ngữ thù địch trên nền tảng. Facebook gọi đây là "bước nhảy vọt" trong việc sử dụng máy để lọc nội dung. Tuy vậy, những nỗ lực này vẫn không được Facebook minh bạch.
Theo Wired, Facebook cho biết họ không công bố số lượng bài đăng mang ngôn ngữ thù địch của 1,7 tỷ người dùng đang hoạt động mỗi ngày. Điều này cho thấy độ chính xác của công cụ trí tuệ nhân tạo mà họ đầu tư vẫn còn là bí ẩn.
Theo Facebook, mạng xã hội này đã xóa 9,6 triệu nội dung liên quan đến ngôn ngữ kích động trong quý đầu tiên của năm 2020, tăng 5,7 triệu bài so với quý IV/2019.
Trong số 9,6 triệu bài đăng bị xóa trong quý đầu tiên, Facebook cho biết phần mềm của họ đã phát hiện 88,8% trước khi người dùng báo cáo. Điều đó cho thấy các thuật toán đã gắn cờ 8,5 triệu bài đăng bằng trí tuệ nhân tạo.
Trong một cuộc gọi với các phóng viên, Mike Schroepfer, Giám đốc Công nghệ của Facebook tự hào về khả năng hoạt động của trí tuệ nhân tạo.
Tuy vậy, số liệu của Facebook chỉ cho thấy số bài đăng mà họ phát hiện được. Thực tế, con số 9,6 triệu bài đăng trong một quý bị phát hiện chỉ như muối bỏ bể.
Caitlin Carlson, phó giáo sư tại Đại học Seattle, cho biết 9,6 triệu bài đăng bị xóa vì ngôn từ kích động thù địch trông nhỏ bé đáng ngờ so với mạng lưới người dùng khổng lồ của Facebook.
Carlson đã công bố kết quả vào tháng 1 từ thử nghiệm của cô và một đồng nghiệp. Theo đó, họ ghi nhận được 300 bài đăng trên Facebook mang ngôn ngữ thù địch, vi phạm chính sách Facebook. Tuy vậy chỉ một nửa trong số đó bị phát hiện và xử lý. Điều này cho thấy những gì Facebook phát hiện và xử lý chỉ là bề nổi của tảng băng.
Từ lâu, Facebook được biết đến là một nền tảng quản lý nội dung yếu kém. Bê bối lớn nhất xảy ra năm 2016 khi cho phép các mẩu quảng cáo can thiệp kết quả bầu cử Mỹ.
Năm 2017, mạng xã hội này để những bài đăng kích động thù địch lan rộng trên nền tảng của mình.

Theo Zing News