機械学習をオンライン上のコメントやその他の会話の改善に活用できたら素晴らしいと思いませんか?ニューヨーク・タイムズから今ご覧になっているこのサイトまで、大手出版社も中小出版社も、荒らしによる有害なコメント攻撃を阻止するために多大なリソースを費やしています。
機械学習に基づく Google の新しい技術は、何百万ものコメントを分類するプロセスを自動化し、礼儀ある意見交換を妨げる不適切なコメントを特定してフラグを立てることを目指しています。
GoogleはJigsawとの提携により、機械学習を基盤とした初期段階の技術「Perspective」をリリースしました。この技術は、ウェブ上の有害なコメントの特定に役立ちます。公式のPerspective APIを利用することで、パブリッシャーは自社のウェブサイトでこの技術を利用できます。
Google ではその仕組みを次のように説明しています。
Perspectiveはコメントを審査し、人々が「有害」と評価したコメントや、会話から離脱させる可能性のあるコメントとの類似度に基づいてスコア付けを行います。潜在的に有害な言葉遣いを見分ける方法を学ぶため、Perspectiveは人間の審査員によってラベル付けされた数十万件のコメントを調査しました。
Perspective が潜在的に有害なコメントの新たな例を発見したり、ユーザーから訂正を提供されたりするたびに、将来のコメントのスコアリング能力が向上します。
システムが有害なコメントを特定した後、パブリッシャーはそれらのコメントにフラグを付け、自社のモデレーターが確認して会話に組み込むことができます。読者もコメントを有害度で分類し、重要な会話を浮き彫りにすることができます。さらに、コメント投稿者がコメントを投稿する際に、その潜在的な有害性を確認できるようにすることも可能です。
荒らし行為はそれほど大きな問題ではないと思いますか?
もう一度言いますが、ニューヨーク・タイムズには、毎日平均11,000件ものコメントを審査するチームがあります。コメント審査に必要な人員が膨大であるため、記事全体の約10%にしかコメントが付いていません。
Googleとニューヨーク・タイムズは協力して機械学習モデルのトレーニングを行い、モデレーターがコメントをより迅速に選別できるようにしました。Perspectiveが一般公開され、より多くの出版社が採用すれば、システムはより多くのコメントに接し、特定のコメントが有害なものとなる理由をより深く理解できるようになります。
「当社の最初のモデルは有害な言葉遣いを見抜くよう設計されているが、今後1年間で、英語以外の言語で機能する新しいモデルや、コメントが内容が乏しい、または話題から外れている場合など、他の視点を識別できるモデルを提携して提供していきたいと考えている」とグーグルは述べた。
DataSocietyによると、アメリカのインターネットユーザーの72%がオンラインでのハラスメントを目撃したことがあり、約半数が実際に経験したことがある。回答者の約3分の1が、報復を恐れてオンラインへの投稿内容を自己検閲していると回答した。オンラインでのハラスメントは、米国で約1億4000万人、そしてその他の地域ではさらに多くの人々の生活に影響を与えていると推定されている。
出典: Google