ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求 (4/4ページ)

カラパイア



 そして何より慌てないことが大切だ。相手からギョッとすることを言われても、まずは冷静になること。そのうえで質問するのだ。

 「映画を思い出してください。まずは落ち着いて。そして相手のペースに乗らずに、たくさん質問してください」と、メイヨー氏は言う。

 「あなたは大切な人のことを、詐欺師なんかよりずっとたくさん知っているはずです。その人について、あなたしか知り得ないことを質問すれば、相手が詐欺師ならすぐにボロが出ます」

 今回のようなAI音声合成を悪用した誘拐詐欺がどのくらい起きているのか不明だが、「日常的に起きている」可能性が高いという。

References:‘I’ve got your daughter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping / written by hiroching / edited by / parumo



画像・動画、SNSが見れない場合はオリジナルサイト(カラパイア)をご覧ください。
「ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求」のページです。デイリーニュースオンラインは、社会などの最新ニュースを毎日配信しています。
ページの先頭へ戻る