国連の報告書は、Apple、Google、Microsoftなどのスマートアシスタントプロバイダーが、アシスタントの音声をデフォルトで女性にすることでジェンダーバイアスを強化していると間接的に非難している。
AppleのSiri、MicrosoftのCortana、Google Homeスピーカーに搭載されているGoogle Assistant、そしてAmazonのAlexaは、圧倒的に人気のあるデジタルアシスタントです。これらのアシスタントのほとんどは、デフォルトで女性の音声に設定されています。Alexaのように女性の音声のみを使用するアシスタントもあれば、Siriのように設定で音声の性別を変更できるアシスタントもあります。
場合によっては、アシスタントのデフォルトの音声の性別はユーザーの特定の市場によって異なります。Apple はその良い例です。Siri はほとんどの国で女性の音声を使用しますが、システム言語がアラビア語、フランス語、オランダ語、またはイギリス英語に設定されている場合は、デフォルトで男性の声になります。
「もしできるなら、私は赤面するだろう」と題された報告書より:
ほとんどの音声アシスタントの話し方は女性なので、女性は親切で従順、そして喜んで応じてくれるヘルパーであり、ボタンに触れるか、「ねえ」や「OK」のような単刀直入な音声コマンドで対応してくれるという印象を与える。
アシスタントは、指揮官の指示以上の権限を持ちません。アシスタントは、口調や敵意に関わらず、命令に従い、質問に答えます。多くのコミュニティでは、このことが、女性は従順で不当な扱いにも寛容であるという、広く信じられているジェンダーバイアスを強めています。
9to5Mac が指摘しているように、このレポートのタイトル (「もしできるなら、赤面するだろう」) は、かつて Siri が「女たらし」と呼ばれたときの応答 (「まあ、そんなことないわよ」) の 1 つだったが、その後 Apple はそれらの応答を「それにはどう返答すればいいのかわからない」に変更した。
https://www.youtube.com/watch?v=2DWUuKIl09Y
また、女性のAIヘルパーが、女性、女児、女性的な人が要求に応じて反応することが普通であると示唆し、現代社会における女性の役割について子供たちに誤った考えを与える危険性があることも懸念される。
ハーバード大学で無意識の偏見を研究するカルヴィン・ライ氏によると、人々が持つジェンダー連想は、それらに接する回数に左右されるという。女性型デジタルアシスタントの普及に伴い、「女性」と「アシスタント」を連想する頻度と量は劇的に増加している。
ライ氏によると、文化が女性をアシスタントと同一視するように人々に教え込むほど、真の女性はアシスタントとして見られるようになり、アシスタントらしくないという理由で罰せられるようになるという。これは、強力なテクノロジーがジェンダー不平等を再現するだけでなく、拡大させる可能性もあることを示している。
このレポートについてどう考えたらいいのかわからない。ただ、Apple、Google、Microsoft、Amazon は、このすべてに潜む文化的背景を非常によく理解している (そうでなければ、Siri のデフォルトの音声の性別は地域によって異なることはない) ということだけだ。しかし、アシスタントの音声がすべて女性であることで、特に子供たちが、そのうちに女性の声と従順さのつながりの証拠として受け取る可能性がある場合、性別による偏見を強める可能性があることをこれらの企業が認識しているかどうかは、私にはよくわからない。
女性アシスタントの声は、西洋におけるジェンダーステレオタイプを本当に強化しているのでしょうか?この報告について、あなたはどう思いますか?ぜひ下のコメント欄であなたの考えをお聞かせください。