1. ロボット三原則
皆さんは「ロボット三原則」をご存知ですか。私は少年時代にSFを読んで知ったのですが、ロボット三原則(正式にはロボット工学三原則)は、アメリカのSF作家のアイザック・アシモフがSF小説の中で1950年に示した、ロボットが従うべき原則です。。
(第一条)
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
(第二条)
ロボットは人間にあたえられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りでない。
(第三条)
ロボットは、第一条および第二条に反するおそれのないかぎり、自己を守らなければならない。
アシモフは、フランケンシュタインのようにロボットが創造主を殺害する、それまでの定型的なストーリーと一線を画す小説を書くため、「人間の製造物なら何らかの安全装置があって然るべき」と考えてロボット三原則を作り上げました。ロボット三原則を読むと気付きますが、三原則が適用されるのは自意識や判断能力を持つ自律型ロボット、すなわち人工知能(AI)に限られており、アニメーションのガンダムのような自意識や判断能力を持たない乗り物や道具としてのロボットには適用されません。
ロボット三原則はその後のロボット作品に影響を与え、ロボットやサイボーグが三原則に違反するケースや三原則と矛盾する状況において苦しむケースもよく見られます。映画では、「アイ、ロボット」(アシモフがロボット三原則を示した最初の小説と同じタイトル)において、三原則を組み込まれたロボットが人間を襲う謎を解く話が展開します。また、「ロボコップ」ではオムニ社によって開発されたロボコップは、悪事を働いてもオムニ社社員には危害を与えないように設定されています。逆にロボット三原則が無い、または有効に働かない結果、AIまたはロボットが人類を支配する世界を描く映画として、ターミネーターシリーズ、マトリックスシリーズがあります。
コミックでは、手塚治虫の「鉄腕アトム」にロボットの権利と義務を定めたロボット法があり、ロボットはそれを守るように作られています。浦沢直樹が鉄腕アトムのエピソード「地上最大のロボット」をリメイクした「Pluto」でもロボットは人工頭脳に組み込まれたシステム上、人間を殺害できませんが、ロボットとして初めて人間を殺害したブラウ1589がキーパーソンとして登場します。
変わったところでは、ソニーは、ペットロボットのAIBOを開発するにあたって次のようなロボット三原則を定義したそうです。
(第一条)
ロボットは人間に危害を加えてはならない。自分に危害を加えようとする人間からも逃げることは許されるが、反撃してはいけない。
(第二条)
ロボットは原則として人間に対して注意と愛情を向けるが、ときに反抗的な態度を取ることも許される。
(第三条)
ロボットは原則として人間の愚痴を辛抱強く聞くが、ときには憎まれ口を利くことも許される。
三原則を安全・便利・長持ちと読み替えることで家電製品に適用できることも知られています。
2. AI七原則
先日の日経新聞に、日本政府がAI利用に関する基本ルール(原則)を今後定めるとの記事が掲載されました。その内容は以下の7つです。
(1) AIは人間の基本的人権を侵さない
(2) AI教育の充実
(3) 個人情報の慎重な管理
(4) AIのセキュリティ確保
(5) 公正な競争環境の維持
(6) 企業に決定過程の説明責任
(7) 国境を越えたデータ利用の環境整備
(1) (3) はロボット三原則の第一条、(2) は同じく第二条、(4) は同じく第三条に対応すると考えられますが、特に重要なのは「(6) 企業に決定過程の説明責任」と思います。
AIすなわち機械学習では、AIエンジンの開発者の他にAIエンジンの教育者、AIエンジンの利用者(AIエンジンを利用するサービスの提供者を含む)が係ります。AIエンジンの教育には大量の業務データが必要となるため、教育者と利用者は同じ組織・企業であることが多くなります。(6) はAIエンジンが何かを決定した場合、なぜそのように決定したかの説明責任を教育者および利用者に求める原則です。
自動運転を例にとって具体的に説明しましょう。例えば、AI開発ベンダがAIエンジンを開発し自動車メーカーに提供します。自動車メーカーは、運転時に起こりうる事象と対応判断のデータを大量に与えてAIエンジンを教育し、バスに組み込んでバス運送会社に販売します。バス運送会社は、自動運転機能付きのバスを用いて公共サービスを提供します。このバスは実際の運転の中で自律的に学習して運転をスムーズなものに改善する機能も搭載されています。この前提で、自動運転中のバスが判断を誤って交通事故を引き起こしたとき、バス運送会社にはAIがなぜそのように判断したか、説明する責任があります。もし説明できなければ、損害賠償の責任はバス運送会社が全て負うことになります。
以下、先日の私のコラム「AIと将棋」から引用します。
“AI(特にディープラーニング)は、答は出すがその理由は示さない、言わばブラックボックスです。どんな場合でもミスや失敗、事故は起こり得るものです。そのときに現在のAIは失敗の原因や理由を説明できないでしょう。”
このように、AI利用者に説明責任を求めるのは困難です。有事の際に自動車メーカーやAI開発ベンダが説明するように契約を結んでいたとしたらどうでしょう。その場合もAI開発ベンダはAIエンジン(ディープラーニング)がどのような入力に対しどのような出力を出すか、全ての入力について答えることはできません。さらに、最初に開発したAIエンジンの動作は、その後の自動車メーカーやバス運送会社(実際の運転)の教育により変化しています。元のAIエンジンに問題があったのか、教育時に与えたデータが悪かったのか、その他、判断理由すなわち交通事故の原因を追究するのは非常に困難でしょう。
ただし、AI利用時のトラブルの責任の所在が不明な現状においては、AIの開発ベンダが無制限の責任を負うことになるかも知れないとの懸念から、AI開発が委縮するおそれがあります。それを払しょくするため、(6) のような検討は確かに有効です。AIがプラント設備の運転(監視)、人事採用、投資・融資、介護等、法的リスクを伴なう用途に適用されつつある点からも重要であり、今後、AI七原則の動向を注視する必要があります。
・コラム「深層学習とGoogleの深い関係」、2016/10/10、
https://www.itc-kyoto.jp/2016/10/10/深層学習とgoogleの深い関係-岩本-元/
・コラム「ワトソンに訊いてみた」、2017/4/10、
https://www.itc-kyoto.jp/2017/04/10/ワトソンに訊いてみた-岩本-元/
・コラム「AIと将棋」、2018/02/12、
https://www.itc-kyoto.jp/2018/02/12/aiと将棋-岩本-元/
------------------------------------------------------------------------
■執筆者プロフィール
岩本 元(いわもと はじめ)
ITコーディネータ、技術士(情報工学部門、総合技術監理部門)
&情報処理技術者(ITストラテジスト、システムアーキテクト、プロジェクトマネージャ、システム監査他)
企業におけるBPR・IT教育・情報セキュリティ対策・ネットワーク構築のご支援
コメントをお書きください
門 久義 (月曜日, 06 11月 2023 17:41)
AIについては、①技術的維持・開発の用途、②社会状況の推測用途、③個人に関する推測・想定の用途などが考えられますが、それぞれの用途に限定したAIを設けるべきです。特に②と③に付いては、AIの基礎データが大切ですが、犯罪に利用されそうな成果を排除できるようにしなければならないです。特に犯罪小説・コミック等を導く様なAIを排除すべきです。