TikTokは、否定的な体験の記憶を意図せずに強化することがないように、アプリ上で動画をレコメンドする方法に調整を加えている。
![TikTokのロゴ](https://i0.wp.com/okane.robots.jp/wp-content/uploads/2021/12/tiktoke38081e58b95e794bbe381aee383ace382b3e383a1e383b3e38389e696b9e6b395e38292e8aabfe695b4-e381a4e38289e38184e4bd93e9a893e381abe9858d.jpg?w=1256)
提供:Sarah Tew/CNET
TikTokは米国時間12月16日、極端なダイエットやフィットネス、悲しみ、別れを扱うコンテンツなど、1つの動画として見る場合には問題がなくても、「まとめて見ると問題」になりかねないタイプのコンテンツをユーザーが過剰に視聴するのを避けるため、変更をテストしていると発表した。
「また、孤独や減量に関するコンテンツなど、ポリシー違反ではないがそういったものばかりを見ていると悪影響を及ぼしかねないごく一部のタイプのコンテンツだけを、システムが意図せずにレコメンドしていないかどうか、判断しようとしている」とTikTokは述べた。
同社は「For You」ページで勧められたくない言葉やハッシュタグに関連する動画をブロックできる機能にも取り組んでいるという。9月には、否定的なボディイメージや摂食障害などを抱える人々をサポートするメンタルヘルスガイドとリソースを公開している。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。