\r\n\r\n
YouTubeのコメント欄は、長い間モラルに欠ける場所と考えられてきました。 YouTubeは、そのコミュニティをより歓迎し、包括的にしようと多くの改善を行っています。そのうちの一つは、潜在的に攻撃的なコメントを投稿する前に、人々に反省を促すことです。
YouTubeのブログで発表されたように、動画サイトでは、ユーザーのコメントが他人を不快にさせる可能性がある場合に警告する新機能を展開する予定です。
不快感を与える可能性のあるコメントを自動的に検出し、投稿前にプロンプトが表示される場合があります。
"Keep comments respectful," お知らせには、次のように書かれています。 自分のコメントが適切かどうかわからない場合は、コミュニティガイドラインを確認してください。"
リマインダーの主な動作は、コメントを編集することですが、そのまま投稿することも可能です。
YouTubeは、この警告によってユーザーが一旦立ち止まって自分のコメントを再考し、より良い、より理解のある議論を巻き起こすことを期待しています。
このシステムは、他のユーザーからの報告に基づいて、攻撃的なコメントの可能性を学習します。 YouTubeは、システムが常に学習しているため、常に正しいとは限らないことを指摘しています。
今回の新機能は、あくまでも注意喚起のためのものです。コミュニティ・ガイドラインに違反した場合にコメントが削除されないということではありませんし、チャンネル・オーナーによってコメントが削除されないということでもありません。
YouTubeによると、クリエイターからは、有害なコメントが表示されないように改善してほしいという声が上がっているそうです。そのため、YouTubeでは、YouTubeスタジオで新しいフィルターをテストしています。
このフィルターにより、クリエイターは、自動的に審査保留となった不適切なコメントや有害なコメントを非表示にすることができます。クリエイターがこれらのコメントを見ることはできますが、選択してもすぐには表示されないようになりました。
また、YouTubeは、審査プロセスを簡素化するために、コメント審査ツールを合理化するとしていますが、変更の詳細は明らかにされていません。
また、動画のトピックを考慮し、憎悪的なコメントを排除する技術の改善も続けています。2019年に入ってから、このプラットフォームでは、毎日46倍ものヘイトスピーチコメントが削除されるようになりました。前四半期は、ヘイトスピーチが原因で54,000チャンネルが解約されました。
YouTubeがコメント欄をきれいにするのは素晴らしいことですが、まだ先が長いです。YouTubeのコメントはもう十分という方は、サイトにアクセスせずにYouTubeの動画を見る方法をご紹介していますので、ぜひご覧ください。