人工知能がもたらす結果に対する一般の人々の責任判断:判断の心理過程と文化差
【研究キーワード】
AI / 道徳能力 / 責任 / 感情経験能力 / 感情読取能力 / 因果認知 / 責任判断 / 主体性認知 / 感情認知 / 責任能力 / 文化比較
【研究成果の概要】
本研究は、人工知能(以下AI)が引き起こした被害に対する人々の責任判断とその文化的な特徴を、①AIのとらえ方、②非難の判断、③人々が望む対処、に注目しながら3つの日米比較web調査で検討していくことを目指している。
【学会発表】2021年度は、2件の日米比較ウェブ調査の研究報告を、国際比較文化心理学会と日本グループダイナミクス学会の大会で行った。以下の文化差と文化共通性を報告した。
<文化差>…AIの判断が人に被害をもたらした場合、日本人はアメリカ人に比べ、因果的に離れた対象に原因や責任を知覚し、直接行為者に焦点をしぼった解決策を好まない傾向がある。また、AIをコントロールする責任、結果を負担する責任、手柄を得る資格、に関する規範的な信念にも文化差があり、日本人はアメリカ人に比べ、AIを監督する立場にある「使用者」の責任や資格を重視し、AIや、AI「製造者」の責任や資格を小さく評価する傾向がある。
<文化共通性>…日米いずれの文化でも、被害原因を作った行為者がAIの場合は、人間や組織の場合よりも、行為者自身の責任は小さく、監督する立場の者の責任は大きく評価される。また、AIに「感情経験能力」を知覚しやすい人ほど、AIに「道徳能力(善悪判断が出来、その判断に従ってふるまえる)」を知覚しやすい。
【国内web調査実験】2021年度はAI観と責任の関係に関する実験を新たに1件、別予算で実施した。2020年度までに実施した本プロジェクトの調査で、AIに「感情経験能力」を知覚しやすい人ほどAIに「道徳能力」を知覚しやすい、という関係が一貫して見られたため、AIが「感情経験能力」や「感情読取能力」を備えると、AIに道徳性や責任が知覚されやすくなる、という因果関係があるか、国内サンプルでシナリオ実験した(web調査で600名の男女を対象)。結果を2022年度の学会で報告することをめざしている。
【研究代表者】
【研究種目】基盤研究(C)
【研究期間】2019-04-01 - 2024-03-31
【配分額】2,600千円 (直接経費: 2,000千円、間接経費: 600千円)