Các nhân viên của Meta và ByteDance được cho là đã biết tác hại của nền tảng này đối với trẻ em và thanh thiếu niên nhưng đã phớt lờ.
Dựa theo Bloombergmột vụ kiện được đệ trình lên tòa án liên bang ở Oakland, California cuối tuần qua cáo buộc kỹ sư kiêm CEO Meta Mark Zuckerberg đã cố tình phớt lờ tác hại và để nội dung tiêu cực tiếp cận nhiều nhóm người dùng, trong đó có trẻ em.
Vụ kiện Oakland tập hợp nhiều đơn khiếu nại từ khắp nước Mỹ, cáo buộc hàng loạt mạng xã hội như Facebook, Instagram, TikTok, Snapchat và YouTube khiến thanh thiếu niên mắc chứng lo âu, trầm cảm và rối loạn ăn uống. cũng như chứng mất ngủ. Trong đó, hơn chục vụ tự tử đã xảy ra liên quan đến thuật toán của các ông lớn công nghệ trong việc gợi ý các video độc hại, lôi kéo sự tò mò của trẻ em.
“Không ai thức dậy với suy nghĩ muốn mở Instagram nhiều lần nhất có thể. Tuy nhiên, đó chính xác là điều mà nhóm sản phẩm của Meta đang cố gắng thực hiện”, một nhân viên của Meta tiết lộ vào năm 2021. Có nghĩa là các nền tảng mạng xã hội chỉ tập trung vào việc giữ chân người dùng , thay vì giữ chúng an toàn.
Theo các tài liệu nội bộ có được tại ByteDance, công ty mẹ của TikTok, nền tảng này biết những người trẻ tuổi rất dễ bị lôi kéo vào các thử thách lan truyền trên nền tảng, vì nhóm này chưa nhận thức đầy đủ về mối nguy hiểm. nguy hiểm. Giới trẻ cũng thường ảo tưởng về khả năng phòng ngừa rủi ro nên ít cảnh giác với những nội dung độc hại.
Vụ kiện cũng cho thấy, thay vì tập trung giải quyết các vấn đề khi trẻ em sử dụng Instagram và Facebook, công ty Meta đã cắt hỗ trợ cho nhóm chuyên về sức khỏe tâm thần.
Giám đốc điều hành Meta Mark Zuckerberg thậm chí đã được cảnh báo rằng công ty có nguy cơ bị kiện và chỉ trích. Nếu vấn đề không được giải quyết, những rắc rối đó sẽ tiếp tục theo họ vào metaverse – vũ trụ ảo mà Meta đang đầu tư hàng chục tỷ USD để theo đuổi.
Trong khi đó, để tự bảo vệ mình, các công ty mạng xã hội viện dẫn Điều 230 của Đạo luật Tiêu chuẩn Truyền thông Hoa Kỳ từ năm 1996. Theo luật, các trang web hoặc dịch vụ lưu trữ nội dung không chịu trách nhiệm hoặc gặp rắc rối pháp lý với thông tin do người dùng gửi, chẳng hạn như bình luận trên các trang tin tức. , dịch vụ video, mạng xã hội.
Ngoài ra, phát ngôn viên Meta cũng cho biết thông tin công ty cắt tài trợ cho nhóm sức khỏe tâm thần là sai sự thật.
Minh Hoàng