雑記帳

アクセスカウンタ

zoom RSS 人工知能AIが抱える道徳的ジレンマ

<<   作成日時 : 2018/11/01 18:12   >>

ブログ気持玉 0 / トラックバック 0 / コメント 0

 人工知能AIが抱える道徳的ジレンマに関する研究(Awad et al., 2018)が公表されました。人工知能の急速な発展にともない、機械がどのようにして道徳的な意思決定を行なうのかに関して懸念が生じており、機械の振る舞いを導くべき倫理原則についての社会的期待を定量化することが大きな課題となっています。この課題に取り組むため、本論文は、自動運転車が直面する道徳的ジレンマを探るためのオンライン実験プラットフォーム「モラル・マシン」を設計し、展開しました。このプラットフォームでは、世界の233の国や地域の数百万の人々から、10の言語で4000万件の意思決定データが集められました。本論文は、この実験結果を報告しています。

 本論文の報告は4点にまとめられます。第一に、世界的な道徳的優先傾向の概要を記述します。たとえば、より多くの命またはより若い人の命が救える方を選ぶという傾向です。第二に、個人間の優先傾向の違いを参加者の人口統計学データに基づいて例証します。第三に、文化間での倫理的な違いを示し、それらによって国や地域を主要な3集団に分けられる、と明らかにします。第四に、これらの違いが、近代的制度や根深い文化特性に相関していることを示します。本論文は、これらの優先傾向が、社会的に許容される世界的な機械倫理の原則の開発にどのように役立つか、社会的議論や政策議論の出発点になることを期待しています。以下は『ネイチャー』の日本語サイトからの引用です。


人間行動学:モラル・マシン実験

人間行動学:AIが抱える道徳的ジレンマ

 人工知能の技術が進歩するにつれ、機械が道徳的に曖昧な状況においてどのように振る舞うかについての社会的な懸念が浮上しており、機械の振る舞いに関する原則の開発はこうした懸念によって導かれるべきである。自動運転車の振る舞いに対する社会的期待についての議論に情報を提供しようと、I Rahwanたちは今回、インターネット上の実験プラットフォーム「モラル・マシン」を展開し、その結果を報告している。このプラットフォームでは、自動運転車が関わる道徳的シナリオに対する世界的な態度や優先傾向について、200万人以上の人々から意思決定データを集め、調査が行われた。得られた結果からは、異なる複数の文化における優先傾向について、前例のない全体像が明らかになった。これらの優先傾向の一部は普遍的であった(より多くの命またはより若い人の命が救える方を選ぶなど)が、中には文化間での倫理的な違いも見られた。著者たちは、これらのデータが、自動運転車の倫理に関して社会的に許容される原則を開発する上での、社会的議論や政策議論の出発点になることを望んでいる。



参考文献:
Awad E. et al.(2018): The Moral Machine experiment. Nature, 563, 7729, 59–64.
https://doi.org/10.1038/s41586-018-0637-6

テーマ

関連テーマ 一覧


月別リンク

ブログ気持玉

クリックして気持ちを伝えよう!
ログインしてクリックすれば、自分のブログへのリンクが付きます。
→ログインへ

トラックバック(0件)

タイトル (本文) ブログ名/日時

トラックバック用URL help


自分のブログにトラックバック記事作成(会員用) help

タイトル
本 文

コメント(0件)

内 容 ニックネーム/日時

コメントする help

ニックネーム
本 文
人工知能AIが抱える道徳的ジレンマ 雑記帳/BIGLOBEウェブリブログ
文字サイズ:       閉じる