一般社団法人 日本自動車会議所

会員向けクルマ
biz

INFORMATIONクルマの情報館

自動車産業インフォメーション

2025年9月24日

経産省、AI活用の製品・サービス事故 民事責任の「指針」を策定  不法行為法やPL法中心に

 経済産業省は、人工知能(AI)を活用した製品やサービスで事故が起きた際の民事責任に関する「指針」を策定する。有識者で議論を進めてもらい、今年度中にもまとめる。AIが関わる事故では現行法をどう適用するかの統一見解がなかった。不安が拭えず、AIの導入が進まない一因にもなっていた。指針の策定で、こうした不安を払拭し、迅速な事故処理などにもつなげたい考えだ。

 「AI利活用における民事責任のあり方に関する研究会」(座長=大塚直・早稲田大学法学学術院教授)が議論を進めている。全4回の開催後に指針案をまとめる。

 責任については、不法行為法や製造物責任法(PL法)を中心に考える。不法行為法は故意や過失で損害を与えた人が賠償する法制度(根拠は民法709条)。PL法は製造物の欠陥が原因で損害を受けた場合、被害者が製造業者に賠償を求めることができる制度だ。不法行為責任では加害者の「過失」を、製造物責任は製造物の「欠陥」をそれぞれ立証する必要がある。

 AIは「自律性」「ブラックボックス性(判断課程や根拠が見えないこと)」があり、過失や欠陥の有無をどう判断するかがカギになる。

 想定事例として自動車関連分野も挙げられた。例えば、配送事業者がAIの導き出した「最適ルート」で運行したところ、幅員が狭い悪路だったために脱輪し、遅配や荷物の損壊が起こったケースなどだ。過去に、カーナビゲーションの道案内通りに運転して車体が傷ついた事件の判例があり、状況によっては運送業者、ドライバー、AIシステムの提供業者、それぞれに責任が問われることが考えられる。

 政府は2024年に「AI事業者ガイドライン」を公表。安全性やセキュリティ確保など、事業者が取り組むべき事項を10の指針として挙げた。ただ、ガイドラインと責任論との関係は明確になっていなかった。新たな指針を出すことで、ガバナンス(統治)の実効性も高めたい考えだ。

 ある政府関係者は「(AIの判断の根拠を説明できる)エクスプレイナブルAIなど、多様な方法論がある」としながらも「どうしても解き明かせない問題は残る」と話す。社会が受け入れられるレベルで安全性が確かめられることが重要という。

 内閣府の資料によると、24年の個人での生成AIサービス利用経験は中国で8割以上、米国で7割弱だが、日本は3割弱になっている。企業の利用率も米中やドイツが9割を超える中、日本は5割強にとどまっている。

AIが導く運行ルートの責任は誰に?(イメージ)

対象者 一般,自動車業界

日刊自動車新聞 9月24日掲載