子供はロボットの判断を重視し、ロボットの意見に従いがちなことが判明(英研究)

カラパイア

子供はロボットの判断を重視し、ロボットの意見に従いがちなことが判明(英研究)
子供はロボットの判断を重視し、ロボットの意見に従いがちなことが判明(英研究)


 仲の良い友達から「一緒に橋から飛び降りよう」と言われたら、どうする?

 こうした仲間による同調圧力は危険である。特に子供ならば、例えそれが危険なことと分かっていても衝動的な行動を促してしまう。

 だがそれは、人間の仲間に限ったことではなさそうだ。言われた相手がロボットであっても、少なからぬ子供が本当に飛び降りてしまうかもしれないことが判明したのだ。
・子供はロボットの判断を重視する

 『Science Robotics』に掲載された研究論文によれば、子供たちはロボットの意見を人間以上に重視するという。例えロボットの判断が間違っていたとしてもだ。
  
 ロボットやAIがますます普及するようになれば、それが子供に与える影響に注意しなければならないと研究者は警鐘を鳴らしている。

 研究論文の著者はこう問う。「たとえば、ロボットが製品やセービスや好みなどを勧めてきたら、従来の広告よりもそれに従う人は多いだろうか?」と。ヘルスケア、教育、セキュリティなど、現在ロボットは社会的影響が重要な意味を持つ数多くの分野で採用されつつある。


・人間は集団志向に左右されやすい

 この研究論文は、アッシュの同調実験という有名な実験の派生バージョンである。この実験は1951年にポーランドの心理学者ソロモン・アッシュが行なったもので、人間がいかに集団思考に左右されやすいか実証している。

 実験では、大学生50名(全員が男性)に”視力検査”に参加してもらった。数人でなる学生グループはテーブルに座り、2種類の図版を提示される。

 1つは1本の線が引かれたもので、もう1つはA、B、Cと記された長さの異なる3本の線が引かれている。学生らはA、B、Cのうち最初の線の長さに一番近いものはどれかと質問される。

30_e

 じつは学生グループの中で本当の被験者は1人だけで、他の参加者は全員サクラである。質問の答えは明らかなのであるが、サクラは全員同じ間違った回答をする。

 すると被験者(必ず最後に質問される)の3分の1が、サクラに同調して、誤った回答を選んだ。同じような実験が12回繰り返されるが、被験者の75パーセントが最低1度はこのような同調を示し、そうしなかったのは4分の1だけだった。


・ロボットの意見に同調する子供たち

 英プリマス大学のトニー・ベルパエム教授らは、サクラをロボットに置き換えて同じような実験を行なった。だがもう一捻り加えて、大人のグループと子供のグループで試してみることにした。

 その結果、大人はロボットに従う必要を感じなかったのに対し、子供はロボットに大いに左右された。

 部屋で1人で課題を行なっているときはきちんと正解できたのに、ロボットが参加すると答えを間違うようになったのだ。

111_e


・子供は人間とロボットを同等として扱う

 この実験では子供の影響の受けやすさと同様、大人がロボットに左右されなかったことも注目に値する。

 なぜなら「コンピューターは社会的アクター(CASA)」という社会学の広く受け入れられている理論に矛盾するからだ。

 CASA理論は1996年に提唱されたもので、人間がコンピューターとやりとりをする際、それがあたかも人間であるかのように行う傾向があると指摘している。実験結果はCASA理論の限界を示すものだ。

 しかしベルパエム教授らはこれについて特に意外でもなく、予想通りだと述べている。ロボットがオモチャのように小さく、影響を与えるほどの存在感がなかったからだ。

iStock-869462668_e


・大人ですら高度なロボットに対しては服従する

 ロボットに従わなかった理由を問われた大人の参加者は、ロボットが誤作動したか、質問に正解できるほど性能が高くないと考えたからと答えている。

 したがってもっと高度に見えるロボットで同じ実験を行えば、結果は変わった可能性がある。

 CASA理論はこの実験では立証されなかったが、ロボットやコンピューターが関係した場合の人間の行動を予測する優れた指標であることは間違いない。

 過去の実験では、人間と同じようなパーソナリティを持つように見えるロボットが相手の場合、人はそのやりとりをより楽しむことが確認された。

 またロボットの見た目の性別から、人がステレオタイプな偏見を持つことも分かっている(これはヴァーチャルアシスタントが登場した時代において、特に関係があるトピックである)。

11_e1


・人間はロボットを人間と同一視する傾向にある

 こうした社会的本能は我々の行動にも影響を与える。たとえば、ロボットの電源を切ろうとした際に「止めてほしい」と懇願されると、人はそれを躊躇する。さらに”意地悪”と思っているロボットに見られていると、注意力が増すことも判明した。

 これらが意味するのは、確かにロボットの目からプレッシャーを感じやすいのは子供であるが、大人とてそれと無縁ではないということだ。

 研究者は、これは我々が注意を向けるべき力学だと話す。ケンブリッジ・アナリティカ社のスキャンダルで個人情報がどのように扱われていたのか考えてみてほしい。それは社会的AIと組み合わせて我々に影響を与えることもできるのだ。

 一方、ロボットからのプレッシャーは邪な用途はもちろんのこと、善いことにも使える。たとえば、教育の現場で使われるAIが子供たちに勉強の習慣を身に付けるよう躾けることもできるだろう。

 ロボットは自閉症の子供の社会スキルを伸ばす手助けができるという証拠もある。つまり、確かに人間はロボットの影響を受けるが、結局その良し悪しはそれを使う人間の側にあるということだ。

References:theverge / euronews/ written by hiroching / edited by parumo
「子供はロボットの判断を重視し、ロボットの意見に従いがちなことが判明(英研究)」のページです。デイリーニュースオンラインは、カルチャーなどの最新ニュースを毎日配信しています。
ページの先頭へ戻る

人気キーワード一覧