人間と同じように、人工知能ロボットも人種差別や性差別を行う(米研究) (2/3ページ)
・ロボットは潜在的に人種差別・性差別の概念を受け継がれていた
今回の実験では、GloVeにネットで収集した文章を用いて潜在連想テストを受けてもらった。その結果、ヨーロッパ系アメリカ人からはアフリカ系アメリカ人よりも心地よい概念が連想されることが判明した。
また、別の例では、女性の名前からは家族が連想され、男性の名前は仕事・キャリアという概念が連想されたという。
こうした言語に潜む潜在的な偏りは現在のテクノロジーの多くでは利用されていないが、偏見やバイアスが伝達される容易さを浮き彫りにしている。

「こうした技術について大切なことは、今発展しているAIシステムに現在の文化や2歳児の文化を覚えさせてはいけない、ということです」とブリソン氏。AIシステムを文化に沿って発展させつつも、人間の悪しき偏見を学習させるべきではなく、常に新しいデータで再教育し続けなければならないという。
今回の発見が示唆していることは、もし言語特性を理解し、それを自ら作り出せるようなAIシステムが登場した場合、その過程で歴史的・文化的な連想も学習するであろうということだ。そうした連想の中には現在では不適切とみなされるものもある。