少しだけロボット倫理学を考える

ロボットの能力や知能が上がり、遠い未来にはものごころが付くかもしれないとなると、ロボットの人権問題を論じる必要が出てくる。今はまだ我が家のルンバが国連世界人権宣言の対象になるかどうかで頭を悩ませる必要はないが、いずれは自宅の掃除機の人権を巡った問題が発生する世界がやってくるかもしれない。

一方で、今の世界のロボットでも法律的、倫理的な問題は発生している。
ロボット外科医が誤って血管を破裂させて患者が死亡した場合、遺族はロボットの製造業者を訴えることはできるのか?完全な自動運転自動車が事故を起こしたときの責任は誰が負うのか?運転をまったくしていない運転者か?自動車会社か?運転・走行ソフトウェアの基盤を作った会社か?目の前の歩行者か電柱かのどちらかへの衝突が避けられないときに、車はどちらに突っ込むべきか?歩行者を死なせるか搭乗者を死なせるかの選択を行うアルゴリズムを用意する必要はあるのか?

ロボットにまつまる倫理問題は映画や小説の中でも何度も語られている。
映画『アイ・ロボット』では車が川に落ちて、主人公である成人男性と小さな女の子が浸水する車の中に閉じ込められてしまう。それを見たロボットは、1人しか救えない状況下にあって迷わず成人男性を救出する。小さな女の子を救い出しても生存率は僅かだったためだ。
助けられた成人男性はその状況に激高する。「たとえ助かる可能性が低くても女の子を救うべきだった。人間なら誰でもそうする」と。

ロボット工学や人工知能の技術が進歩していても、ロボットが持つ「倫理観」はまったく成長していない。というよりも倫理観というものが存在しない。こうした科学技術の進歩に伴って発生する複雑な問題を論じることのできるロボット倫理学者、政策専門家、立法家もほとんど存在していない。

こうした問題についてとりあげた最初の人はおそらくアイザック・アシモフだろう。SF作家のアシモフは1942年に発表した『堂々めぐり』の中で、「ロボット工学」という言葉を作り、有名な「ロボット工学三原則」を明らかにした。

1.ロボットは人間に危害を及ぼしてはいけない。また不作為によって人間に危害が及ぶようにしてはいけない。

2.ロボットは人間によって出された命令に従わなければならない。ただしそのような命令が第一条に反する場合は除く。

3.ロボットは、第一条及び第二条に反しないかぎり、自身の存在を保護しなければならない。

ロボット工学三原則はロボットにまつわる倫理の問題を考えるための優れた出発点であると言える。しかし、現在ではこの三原則を実現するロボットをプログラムすることはできない。
コーヒーテスト※をクリアできるロボットはまだ存在しないし、そもそも第一条にある「危害」という抽象的な観念を理解するロボットを作成することができない。

※コーヒーテスト
初めて入る(=間取りなどを一切知らない)他人の家に上がり、その家の主人にコーヒーを淹れてあげられるかどうかのテスト。このテストをクリアできるロボットは汎用人工知能を持っていると言える。

また倫理的な判断をそもそもロボットに任せるべきではないという考えもある。人は無意識のうちに自分や他人の命に値段をつけてしまっている。知らない国の見ず知らずの誰かよりも自分の命のほうが大切だし、知らない子どもよりも自分の子どもの命のほうが大切だと多くの人が考えている。こう考えること自体は生物として自然なことであり決して責められるべきことではない。

ただし「命の値段」を数式を元にしてロボットが自動的につけて、誰を生かすか殺すか判断する世界というのは歓迎するべきものではないように思う。機械的に命の値段をつけることを許容する社会とは、社会的格差を増大させるものでありディストピアそのものではないだろうか。行きつく先はHGウェルズが『タイムマシン』で描いた80万年後の世界だ。

いずれにしても未来を決めるのはロボットではなく人間であり、ロボットが思考できるようになったとしても選択を吟味するのは人間であることを忘れずにいたい。ロボットと倫理とだけ聞くと、ドラえもんのような心を持ったロボットが登場する遠い未来の問題であるように思われるが、すでに現在に生きる我々の問題として考えなくてはならない問題であると言えるのだ。

 

マーケターの方向けの、マーケティングにAI活用が進まない3つの理由とその解決策についてまとめた資料を無料で配布しています。

お気軽にダウンロードしてみてください。

>無料でDLする<

 

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です