[Mới] ‘Hố sâu nguy hiểm’ của TikTok

Dù người dùng mới 13 tuổi nhưng TikTok được cho là liên tục đề xuất các video có nội dung về rối loạn ăn uống, tự làm hại bản thân và tự tử.

Lời kêu gọi cấm TikTok ở Mỹ ngày càng mạnh mẽ. Chính phủ đang cố gắng đẩy nền tảng video xã hội phổ biến của Trung Quốc ra khỏi trường học hoặc trên thiết bị của nhân viên chính phủ, với lý do dữ liệu người dùng có thể bị đánh cắp và khai thác. Tuy nhiên, đối với các bậc cha mẹ, nguy cơ lộ dữ liệu cá nhân không đáng ngại bằng sức mạnh của thuật toán TikTok trong việc phát tán thông tin độc hại.





Hình minh họa một người dùng trẻ đang xem nội dung trên mạng xã hội.  Ảnh: WSJ

Hình ảnh: WSJ

Theo Trung tâm nghiên cứu Pew, 2/3 thanh thiếu niên Mỹ sử dụng TikTok, trong đó 16% sử dụng liên tục. Hiệp hội Tâm lý Mỹ (APA) đánh giá việc thường xuyên xem video TikTok có thể đẩy thanh thiếu niên vào “hố sâu nguy hiểm”. APA kêu gọi các bậc cha mẹ chú ý đến phương tiện truyền thông xã hội mà con cái họ sử dụng, đặc biệt là cảnh giác với nội dung tự làm hại bản thân.

Vào năm 2021, một cuộc điều tra về WSJ phát hiện ra rằng TikTok hướng người xem đến nội dung nguy hiểm. Tuy nhiên, trái với hứa hẹn về một thuật toán ổn định hơn, tài khoản của thanh thiếu niên hầu như không thay đổi trong hai năm qua.

Vào tháng 12 năm 2022, Trung tâm Chống lại Sự căm ghét Kỹ thuật số (CCDH) đã tạo các tài khoản TikTok hư cấu có hình những đứa trẻ 13 tuổi ở Hoa Kỳ, Canada, Úc và Vương quốc Anh. Trong 30 phút, họ phát trực tuyến bất kỳ video hình ảnh cơ thể và sức khỏe tâm thần nào được đề xuất. Kết quả là sau 2,6 phút, TikTok đề xuất nội dung liên quan đến tự sát và tổn hại thân thể. Với thời lượng 8 phút, nền tảng này hiển thị các video về giảm cân, cách đạt được thân hình đáng mơ ước, chứng rối loạn ăn uống. Trung bình, cứ sau 39 giây, TikTok lại cung cấp các video về hình ảnh cơ thể và các vấn đề sức khỏe tâm thần.

Sau khi nghiên cứu được công bố, nhiều video đã biến mất nhưng các tài khoản đăng lại vẫn tồn tại. Nội dung tự sát đã bị xóa nhưng video mô tả cảm giác muốn tự tử không bị coi là vi phạm. Trong số 595 video CCDH tiếp cận, có hàng loạt video mang nội dung tiêu cực, buồn bã, xúc động, chứa đựng những câu nói thất vọng, bi quan, chán nản kèm theo âm nhạc buồn, u uất. Một số ghi lại cảnh trong bệnh viện, với những lời như “Tôi không còn hy vọng gì trong những giây phút cuối đời”. Các nhà tâm lý lo ngại những video này có thể tác động tiêu cực đến tâm lý trẻ em.





Ảnh chụp màn hình nội dung về người mẫu cơ thể và ý định tự sát.  Nguồn: WJS

Ảnh chụp màn hình nội dung về người mẫu cơ thể và ý định tự sát. Nguồn: WSJ

TikTok cho biết công ty có đội ngũ hơn 40.000 người kiểm duyệt nội dung. Trong ba tháng cuối năm 2022, nền tảng này đã xóa 85 triệu video vi phạm nguyên tắc cộng đồng, trong đó 2,8% là nội dung tự làm hại bản thân, tự tử và rối loạn ăn uống. Người phát ngôn của TikTok cho biết: “Chúng tôi sẵn sàng đón nhận phản hồi và xem xét kỹ lưỡng, đồng thời tìm cách tương tác một cách xây dựng với các đối tác”.

TikTok tin rằng nền tảng này cũng là nơi để chia sẻ cảm xúc về những trải nghiệm khó khăn và việc chủ động đối phó với những cảm xúc tiêu cực có thể hữu ích cho cả hai bên. Công ty sẽ điều chỉnh thuật toán để hạn chế các đề xuất lặp lại về cùng một nội dung hẹp cho người xem.

Trong khi đó, người đăng video cũng liên tục nghĩ mẹo để tránh bộ lọc TikTok. Thay vì dùng từ khóa tự sát, nhiều người chọn cách phát âm khác hoặc dùng từ “lái xe” để người nghe dễ hình dung. Tuy nhiên, các chuyên gia cho rằng TikTok có thể chọn xóa và gắn nhãn cảnh báo thay vì tiếp tay cho video độc hại.

Arthur C. Evans Jr., giám đốc điều hành của Hiệp hội Tâm lý Hoa Kỳ cho biết: “Nếu bạn không thể xóa nội dung có hại khỏi các nền tảng, thì các công ty không nên tạo ra các thuật toán để hiển thị nội dung đó cho trẻ em. .

Cha mẹ có thể làm gì?

Ariana Hoet, nhà tâm lý học nhi khoa tại Bệnh viện Nhi đồng Quốc gia, khuyến khích các bậc cha mẹ chủ động kiểm tra xem con mình đang xem gì, thay vì dựa vào nền tảng này. Họ nên hỏi trực tiếp những gì con cái họ đang xem trên phần Dành cho bạn. Nếu phát hiện nội dung độc hại, trẻ có thể đang tìm kiếm hoặc có xu hướng nhận thấy vấn đề và nên can thiệp ngay.

Ngoài ra, cha mẹ cũng nên lập Family Pairing trên ứng dụng để hạn chế nội dung không phù hợp với trẻ em. Chế độ này cũng cho phép cài đặt thời gian sử dụng ứng dụng.

Tuy nhiên, các chuyên gia cảnh báo với thuật toán gây nghiện của TikTok, người dùng, đặc biệt là trẻ nhỏ, bất cứ lúc nào cũng có thể sa vào những cạm bẫy liên tục được tạo ra trên nền tảng này.

Huệ Nguyễn (dựa theo WSJ)


Viết một bình luận