ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求 (1/4ページ)
[画像を見る]
いまだにオレオレ詐欺(振り込め詐欺)がはびこっている中、AIを利用することで、より巧妙な犯罪事件が発生している。
米国アリゾナ州で、AIによる音声合成技術を悪用して、子供の誘拐未遂事件が起きた。危うく騙されかけたその母親によれば、誘拐されたと助けを求める電話の声は、紛れもなく娘のものだったという。
だが実際はAIが本人の声を合成し、本人そっくりに作り上げたクローン音声だったのだ。
今、アメリカではこのような音声合成AIを利用した詐欺事件が日常的に起きているという。そんな新手の詐欺から身を守るにはどうすればいいのか?
・娘の声をAIで作り上げ、身代金要求する電話
事件はとある見知らぬ電話番号から始まった。
アリゾナ州在住のジェニファー・デステファノさんは、普段なら見知らぬ番号は留守電で受けることにしていた。
ところが、その時は15歳の娘がスキーで留守にしていたので、もしや事故ではと心配になり、電話に出たのだという。
「電話に出ると、『ママ!』と泣きじゃくる娘の声が聞こえました」と、デステファノさんは事件のことを地元メディアのWKYTに語っている。
困惑しながら「どうしたの?」とステファノさんが問いかけると、「ママ、どうしよう」と娘が泣きながら伝えてきた。
すると「頭を後ろに倒して、横になれ」という男の声が聞こえ、デステファノさんからさっと血の気が引いた。
電話の男はこう告げてきた。
「いいか。お前の娘は預かった。