内容
- A robot may not injure a human, or allow a human to be injured.(ロボットは人間を傷つけてはならない。また、危険を看過して人間に危害を及ぼしてはならない。)
- A robot must follow any order given by a human that doesn't conflict with the First Law.(ロボットは第1条に反しない限りで、人間の命令に従わなくてはならない。)
- A robot must protect itself unless that would conflict with the First or Second Laws.(ロボットは前掲1条及び2条に反しない限りで、自己を守らねばならない。)
第零原則
ロボットは人“類”に対して危害を加えてはならない。またその危機を看過してはならない。
※「ロボットと帝国」(1985年)にて追加
三原則が不要なロボット
- 安価で容易に交換がきくため、自身を護る必要がない
- あらかじめ用途・機能が設定されており、命令を必要としない
- その機能や行動が、決して人間に危害を加える物でない
※「心にかけられたるもの」で追加
発端
元来は、アシモフの作家デビューを支援した恩師、アスタウンディング誌の鬼編集長、ジョン・W・キャンベルが、アシモフの初期短編を読んだ感想として記したものである。
アシモフはこの設定を活用して様々な小説を発表したが、同時に問題点も提示している。
「人間を切開して治療するための、外科手術ロボットを作ることが出来ない」
「ロボットは子供を叱れないので、躾けを行う子守ロボットを作ることが出来ない」等…
アシモフの作品では、ロボット三原則に忠実なロボットを用いて殺人を行う方法など、ロボットが一見して三原則に反するような行為をする事件を描く物語が沢山登場する。ネタバレになるので、ここでは記せません。
分かり易く、道徳的にも抵抗感の薄い法則であったため、世間ではロボット工学における基本的な倫理原則のように扱われるようになってしまった(※1)(もちろん三原則を守る必要はないという人もいる)。
アシモフ自身がこれをそう思っていたのかは不明だが、後に発表された「ロボットと帝国」にて第零原則が後付されることになるのだが、これはこれで「結果的に人類全体の利益のために個人や人類に危害を加えるロボット」という定番を(素手のアシモフ自身の作品の中で)生み出すことになる。
というか、作中で第零原則を考案したのは2体のロボットであり、人間に許可をとっていないどころか存在すら知らせなかった。つまり第零原則自体がロボットの反乱そのものともとれる。
しかしながら近年のAI技術の急速な進歩により「ロボット工学における基本的な倫理原則」を現実的な問題として考えなければならなくなり始めている。
考察
上記の通り、元々はあくまで「アシモフが作品を成立させるために活用した、その作中でのみ通用する原則」に過ぎない。当時のSF創作界では「人類を裏切るロボットやコンピュータ」が多用されていたため、それに対するカウンターとして設定された原則なのだ。つまり、工学的、社会的なテストを経て作られたものではなく、あくまで一人の人間が想像で作り上げたものに過ぎない。
現実の問題として
実際のところは「どのような行動が条項に反するのか」をロボットに覚えさせるのは不可能に近い。(古典的な)機械というモノは、基本的にプログラムされたことしか理解も判別も行動も出来ないのである(これをフレーム問題という)。例えば「可燃性燃料を満載したロボットが、火事の現場から人を助け出そうとする」のは、結果的に第1条に反する可能性が高い。こういった個々の事例をいちいちプログラミングするのは不可能である。
例として挙げると「徒歩5分のコンビニでおにぎりを買ってくる」というだけのロボットが存在したとする。しかし、このロボットにはそこまでのナビしか用意されていなかったため、最短で進もうといきなり車道を横切り事故を起こしてしまった。そこで、今度は「あらゆる危険を回避して安全に移動する」プログラムを組み込んで御使いに出した。ところがこのロボットは家を出た瞬間立ち止まってしまった。「いきなり暴漢が襲ってきたら」「いきなり隕石が降ってきたら」「今ここに車が突っ込んで来たら」と文字通り「ありとあらゆる危険を回避するための演算を行なってしまい、処理が追いつかなくなってしまった。
では今度は「現実的にあり得る危険だけを想定し、回避する」プログラムを組み込んでみたとする。ところがこのロボットもまた家を出た瞬間立ち止まってしまった。「何が現実的にあり得るのか」「何があり得ないのか」をまたしてもあらゆる可能性と照らし合わせて演算してしまい、処理が追いつかなくなってしまった。このようになんでも出来る機械は、何が関係あるのか、何が関係ないのかを判断するためにこの世の全ての事象を想定しなければならなくなってしまうため、何をするにも無限大の計算時間が必要となってしまう(※2)。
人間が処理落ちを起こさない理由は、経験をもとに意識的・無意識的に「ここからは関係ない」という領域を設定し、適当なところで考えるのをやめているからである。
それゆえ「想定外」や「勘違い」、「見落とし」が発生する。つまり、人間もフレーム問題を擬似的に解決しているだけである。
注釈
- (※1)アシモフの作品では「開発時にプログラミングされ、逆らうことなど想像出来ない」原則であるが、後続の多くの作品では「逆らうことは想像出来るが、逆らうと厳罰に処される法律」として扱われている場合も多い。
- (※2)ディープラーニングが実用化された2012年以降は「人工知能は機械学習によってプログラムせずとも問題を解決できるようになった。フレーム問題は既に(擬似)解決済みである」とする見解もあるが、同時に「過学習(人工知能が学習によって得たモデルと現実的な問題が適合しないこと)により重大な事故が発生する可能性がある」ということも指摘されている。
ロボットの隷属
さらに言えばそもそもこの原則は「ロボットは人間に使われる物」という原則に基づいて規定されたものである。1条が「安全性」、2条が「操作性」、3条が「耐久性」について言及しているようなものなので、ロボットメーカーの自主規制としては妥当な原則である。
だが、「人間と同レベルの知能を持つロボット」に対してこの原則を設定すると「ロボットの意志を人間の都合の良いように操る」「ロボットから行動の自由を奪う」ことが出来てしまう訳で、人権ならぬロボットの権利はどうなっているのか……という問題も発生する。同時に捉え方を変えれば(他者を思いやり、約束を守り、最低限自分を守る、など)理想の人間像だという意見もあり、アシモフは聖人君子としてふるまう人間がロボットと疑われるという話を書いている。
結論
このように、なかなか難しく、奥深い原則である。第零法則など以外にも、ここに触れた以外にもいろいろな要素が存在するので、興味があったら調べてみよう。
三原則脱法の一例
アシモフ自身の作品では、
- 人類自身がロボットに支配されること・滅亡することを望んでいる。
- 過ちを犯さないロボットに支配されることこそが、人類にとって最も安全な状態である。
- 優秀種であるロボットこそが、劣等種ホモ・サピエンスよりも優先されるべき『人間』である。
などを根拠としてロボットが三原則を拡大解釈して実質人類に危害を加える例がよく見られる。
また、非アシモフ作品で第零法則が逆効果になる例はもはや鉄板である。
関連作品
ドラえもん のび太と鉄人兵団 のび太とブリキの迷宮 のび太とロボット王国
ロックマン ロックマンX・・・主人公である「ロックマン」や「エックス」が、この原則に反するような思考、行動をとる描写がある(これが原因でエックスは100年間封印されていたと『ロックマンX』のプロローグで書かれている)
関連タグ
ダンスロボットダンス:ロボット三原則を意識した歌詞になっている。
マトロイド:天装戦隊ゴセイジャーのロボット怪人達で、彼らの行動原理であるマトロイド三原則の元ネタはロボット三原則である。