世界初:自動運転AIがPoC1000万シナリオ連続合格(5σ)― 認知制御アルゴリズムの SOTIF・UNECEへの適応性 ― (2/6ページ)
これに対して、先進的なAI開発各社は、倫理原則やガイドラインを検討していますが、AIを従わせるという根本的な技術が未開発です。
日本の自動車インフラの問題として、少子高齢化があります。高齢者ドライバーの問題や子育て世代の移動の問題があり、これを解決する手段として、バスが考えられますが運転手不足が表面化しています。また、働き方改革の影響で、物流の2024年問題があります。これらのインフラの解決策として自動運転は早急に実現する必要があります。
技術的な問題点
AIは確率で判断するのが特性であり、事実ではない推測で判断するハルシネーションなどの不適切な判断が問題です。このことから、様々な教育・指導を行い、ガイドラインを呈示しても、緊急時など矛盾が起きた時点で、この特性が表面化して教育・指導・ガイドラインを無視します。これが不適切な判断となって現れるのです。ですから、この現象を抑制すること必要ですが、AIをコントロールする技術は開発されませんでした。
安全工学の基本は、まず危険源(Hazard)を洗い出し、それを分類し、例外条件を構造化することにあります。世界の論文は次の様に自動運転におけるPoCの問題点を指摘しています。
「安全クリティカルなコーナーケースは実世界で収集が難しく、自動運転評価の核心である」と明言。既存の評価は“簡単なケースに偏っている”と批判(Geng et al., 2025)
自動運転の深層学習は「コーナーケースに弱い」と明確に指摘、現行のデータセットは“典型ケースに偏りすぎている”と批判(Chen et al., CVPR)
シナリオを大量に投げても、「本当に危険なケース(critical scenarios)はほとんど含まれない」と明言。そのため、Scenario‑based testing は安全性を保証できないと結論づけている。(Software Quality Journal, 2023)
その他、数多くの論文等で同様の指摘がなされています。
問題解決・構造的応答制御技術
複数のセーフティガードとマニュアルをセットして、認知制御アルゴリズムでAIの挙動をコントロールするのが構造的応答制御技術です。この技術により、上述の課題を解決します。