ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求 (3/4ページ)

カラパイア

一瞬たりとも娘の声だと疑いませんでした。だから動揺したんです AIの技術革新により本人の声のサンプルがあれば、本人そっくりのクローン音声を合成することが簡単にできるのだ。

 アリゾナ州立大学のAIの専門家スバラオ・カンバンパティ教授は、「耳はもう信用できません」と音声合成AIの急速な進歩について説明する。

 同教授によると、以前ならAIで声をコピーするには、本人の声のサンプルが大量に必要だったが、今ではたった3秒の声があれば十分なのだそうだ。

 「その3秒間で、あなたの声そっくりの合成音声を作れます」とカンバンパティ教授。それはイントネーションや感情までもコピーされているという。

 そうした技術が、ますます簡単に利用できるようになりつつあるのだ。もちろん、道具は使い方次第なので、有益な使い方もあるだろう。

 その一方で、今回のように犯罪に悪用される危険性がある。

[画像を見る]

・音声合成AIによる詐欺から身を守るために
 FBI特別捜査官補のダン・メイヨー氏によると、音声合成AIを悪用する詐欺師は、SNSで獲物を物色することが多いそうだ。

 だから、こうした詐欺師から身を守るには、自分のプロフィールを非公開にして、知らない人に個人情報を見られないようにすることが大切だという。

 詐欺師は個人情報がたくさん載っているアカウントを探して、それを元にその人を徹底的に調べ上げる。だからターゲットにされないためにも、まずは個人情報を明かさないことを徹底しなければならない。

 詐欺師は、口座への送金や、暗号通貨の送付、ギフトカードによる支払いなどで身代金を要求してくる。一度支払ってしまえば、取り戻すのはほぼ無理だそうなので、用心が必要だ。

 また見慣れぬ市外局番や海外からかかってきた電話、家族に相談できないよう口止するケースなども、詐欺の可能性を疑っておくといいという。

「ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求」のページです。デイリーニュースオンラインは、社会などの最新ニュースを毎日配信しています。
ページの先頭へ戻る