研究課題/領域番号 |
21K00015
|
研究機関 | 中央学院大学 |
研究代表者 |
佐藤 英明 中央学院大学, 商学部, 教授 (70192599)
|
研究期間 (年度) |
2021-04-01 – 2026-03-31
|
キーワード | 自動運転 / 社会受容 / 社会実装 / 釈明 / 説明責任 |
研究実績の概要 |
論文「科学技術・イノベーション基本計画における社会の位置づけ」では、科学技術・イノベーション基本計画におけるイノベーション概念および科学技術と社会の関係に対する見方の変遷をたどり、基本計画において新たに用いられるようになった表現が、それとどのように関連しているのかを検討した。2021年度の第6期基本計画では“ELSI”という略語が初めて使用されたが、その訳語である「倫理的・法的・社会的課題」という表現は、すでに第3期から用いられてきた。イノベーション概念の変化とともに、科学技術と社会との関係に対する見方も変わり、それとともに基本計画で使用される用語にも変化がみられる。特に第5期基本計画から多用されるようになった「共創」「ステークホルダー」「社会実装」という表現は、イノベーション概念の転換に呼応したものとなっている。第6期基本計画においてイノベーション概念は、社会全体を変革する「トランスフォーマティブ・イノベーション」へと進化しつつある。 論文「人工知能の罪」では、自動運転車両あるいはそれに搭載されたAIの刑事責任を問えるか否かを検討するために、感情、釈明、責任、意志といった観点から処罰について考察した。自動車事故については操作する運転者の刑事責任が問われるが、完全自動運転の場合、運転操作をおこなう人間は存在しない。しかし、人の死傷という重大な結果が生じているにもかかわらず、誰も刑事責任を負わないという事態は、社会的に受容されず、特に被害者や遺族にとって受けいれがたいものとなると考えられる。責任を負うべき結果が生じ責任が問われるときに責任追及の終止点として事後的に「構成」されるのが自由な意志であるとすれば、AIに関しても「自由意志のようなもの」を「構成」することは不可能ではない。問題は、そうした新たな「虚構」としての「約束ごと」を社会が合理的なものとして容認できるか否かである。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
2021年度は、自律型機械としての自動運転車の責任問題に関する資料を検討し、その成果を論文にまとめた。2022年度は、責任論とも密接に関係する「社会受容性」の問題に取り組んだ。自動運転の社会実装のための法整備は、法的受容可能性の向上をもたらすが、論文「自動運転車の社会受容」では「社会的受容」や「利益と負担」といった用語の意味を明確にするために考察をおこなった。2023年度は、自動運転技術の社会実装と密接に関係する「科学技術・イノベーション基本計画」においてイノベーション概念、科学技術と社会の関係に対する見方がどのように編成してきたのかを検討し、論文にまとめた。また、自動運転車両や搭載AIの刑事責任を問えるか否かの検討のため、感情、釈明、責任、意志といった観点から処罰について考察した。 AIが人の死傷といった重大な問題を引き起こしてしまった場合、それが意図せざる結果であっても、責任の所在を明らかにするためにAIシステムに関与する者は説明責任を果たさなければならない。AIは、入力に対する処理を機械学習によって自動的に獲得するものであり、その学習過程の根拠を示すことが困難となる。そうしたブラックボックス性は、説明や釈明において、大きな障害となる。 今後は、以上の成果を踏まえて、AIが示す予測や推論の根拠を示せないという問題の解決のために「説明可能なAI(XAI)」という技術のもつ意味を考察する。自動運転車による事故に関して過失責任が問われる場合、現実には生じなかった出来事が想像され、その可能性が判断されることになる。その意味で、自動運転車の社会受容において重要なのは、社会的にどのような共通認識を形成するかである。こうした論点を自動運転技術に関する今後の倫理的課題の考察に結びつける。 具体的問題の検討に入る前に、概念的考察をおこなったため、課題の検討については、やや遅れ気味である。
|
今後の研究の推進方策 |
これまでに検討してきた責任に関する議論、社会受容性の問題に関する分析、科学技術・イノベーション基本計画における政策の変遷の検討にもとづき、今後は、AIに関する責任問題という観点から、さらに自動運転技術やAI技術の考察をおこなう。それによって、自動運転に関するルールの設定に際し倫理学的な視点から検討が必要な課題をより具体的に明らかにしてゆく。 すでに自動運転レベル2の運転支援機能で走行中の乗用車が死傷事故を起こした東名高速事故に関して判決が示されている。問題となるのは、運転者が事故を予見できた可能性および事故を回避できた可能性である。この判決では故障の有無については「判然としない」として判断が避けられた。しかし、自動運転車による事故がAIシステムによってもたらされたと考えられるような場合には、そうした判断を避けるというわけにはいかない。そうした判断を可能にするには、AIの透明性や説明可能性を高め、人間が理解可能なかたちで情報を開示することが必要となる。 自動運転車による事故に関して過失責任が問われる場合、現実には生じなかった出来事が想像され、その可能性が判断されることになる。その際、問題となるのは、自動運転システムについて一般に共有されている認識である。行為者の意図や認識はシステムが利用される生活共同体の慣習や制度、共有されている知識などにもとづいて想像され解釈される。ブラックボックスであるAIシステムの説明可能性を高めることは、生活共同体において共有される知識の更新に結びつく。AIシステムによってもたらさる事故の責任という問題にとって重要なのは、社会がどのような認識を共有するかである。AIに関する責任問題の考察を進めるには、AIについて社会が共有すべき認識ついて考察をすすめる必要がある。今後は、この問題に関する国内外の最新の資料・情報を収集しつつ、問題点の検討をおこなう。
|
次年度使用額が生じた理由 |
コロナ禍以降、学会や研究会などでオンライン開催となるなど、旅費の支出が予定より少なったため次年度使用額が生じた。2024年度は、自動運転に関するルールの設定に際して、倫理学的な視点からの検討が必要な課題をより詳細に明らかにするために、国内外の資料・情報を収集し検討をおこなうとともに、研究機関に赴き調査を実施する予定である。とりまとめた課題は、論文として公表する。助成金は、以上の資料収集および調査研究旅費に使用する。
|