世界初:自動運転AIがPoC1000万シナリオ連続合格(5σ)― 認知制御アルゴリズムの SOTIF・UNECEへの適応性 ― (1/6ページ)

バリュープレス

メンタルナビのプレスリリース画像
メンタルナビのプレスリリース画像

メンタルナビ(東京都西東京市 代表:村田芳実、日本心理学会認定心理士・人工知能学会会員)は、独自開発した 認知制御アルゴリズム と AI-PoCプロトコル を用い、自動運転AIに対して 1000万シナリオの安全性検証(PoC)を実施し、100%合格(5σ) を達成しました。SOTIF(ISO 21448)、ISO 26262、UNECE が求める 「例外条件の体系評価」 と 「説明可能な安全性」 を、世界で初めて構造的に実現しました。本検証方式(AI判断の1000万シナリオ連続評価・5σ)は、自動運転を含むあらゆる安全産業において前例のない“世界初の評価手法”です。①原子力・航空機は「判断PoC」をしない、②距離・実績依存であり、1000万シナリオ連続合格という形式は採用していない、③学術論文にも前例がないことから、世界初の表現を使用しています。

背景
自動運転技術は自動車技術の延長線にあるだけでなく、これを成し遂げた先には、世界の交通インフラ市場の主導権を握るという可能性を秘めています。WaymoとBaidu Apollo Goが自動運転のトップを走って、日本は商用化・データ量・規制スピードの3点で “5〜10年遅れ”と言われています。この両巨頭のウィークポイントは、「例外条件の体系評価」と「安全性の説明責任」がまだ構造化されていないことです。これを実現するのが、認知制御アルゴリズムとAI-PoCプロトコルです。
自動運転の要諦はAIドライバーとしての判断ミスを防ぐ設計をすることです。自動運転・ロボティクス領域では、AIの認識精度・性能向上が進む一方で、以下の課題が依然として未解決のまま残っています。
同一条件下でも判断が揺らぐ(再現性)
判断根拠を設計文書として説明できない(説明責任)
想定外条件での挙動を事前に縛れない(安全側制御)
これらは AIモデル性能の問題ではなく、判断制御を設計対象として扱っていないことに起因する構造的課題 です。SOTIF、ISO 26262、UNECEの観点からも、「判断プロセスの設計」 は今後の自動運転レベル3〜4における必須要件となります。

「世界初:自動運転AIがPoC1000万シナリオ連続合格(5σ)― 認知制御アルゴリズムの SOTIF・UNECEへの適応性 ―」のページです。デイリーニュースオンラインは、POC自動車セキュリティ自動車業界自動車産業自動運転ネットなどの最新ニュースを毎日配信しています。
ページの先頭へ戻る