サイバーセキュリティの新たなる脅威。AIが生成した偽の報告書に専門家も騙される (1/3ページ)
AIによって生成された高精度なフェイクニュースなどが社会的な混乱を生み出す可能性については、これまでも懸念されてきた。
だが今やAIがつくり出す文章の自然さは、専門家すら騙されるほどだ。それはサイバーセキュリティを脅かすだけでなく、科学、医療系の偽の論文まで作り出すようになったら、人命に関わる恐れすらあるという。
・自然言語処理AIによる文章生成技術
アメリカ・メリーランド大学ボルティモア校のグループは、「トランスフォーマー」という自然言語処理AIを使って文章を生成し、それをサイバーセキュリティの専門家に読んでもらうという実験を行なった。
GoogleのBERTやOpenAIのGPTをはじめとするトランスフォーマーは、文章を理解して、その翻訳や要約などをつくり出せるAIで、機械が人間らしい文章を表示できるようになったのはこのおかげだ。
また、ほかにも検索エンジンの機能向上や文筆家に文章を書くヒントを提供するといった使われ方がされてきた。
便利な反面、その能力を悪用すれば、たとえば次のようないかにも本当そうな、それでいて特に根拠もない偽の情報をつくり出すこともできる。
APT33はきわめて重要なインフラを物理的に破壊するサイバー攻撃を模索している。攻撃者はウェブベースの航空用管理インターフェースに各種脆弱性を注入。