sugarless time

甘く切ない80年代、甘くない現在の興味のあること中心に綴ります。

【ロボット法 AIとヒトの共生にむけて】レビュー

 

出典:ロボット法 増補第2版 - 弘文堂

 

前書き

久しぶりの投稿はちょっとお堅い内容です。

タイトルの通り最近読む機会があった

【ロボット法 AIとヒトの共生にむけて】

についてのレビューになります。

初版発行は2017年になりますが、読んだのは2019年の増補版、冒頭の画像は2024年に発行された増補第2版になります。
法律から見る最先端技術(発行当時)という意味でとても興味深く読ませていただいたので、久しぶりに投稿してみる気になった次第です。

本書の詳細については省きますが、以下に示す本書の構成(目次)から興味を引いた内容だけかいつまんでいきます。

目次

序章 ロボット法の必要性
 1 ロボット法とサイバー法
 2 「ロボット法」が必要な理由
 3 野放図な-無責任な-開発は正しいか?
 4 ロボット法の研究は、ヒトの探求でもある?!
第1章 ロボット工学3原則
 Ⅰ 「ロボット工学3原則」とは何か
 Ⅱ ロボット工学3原則をめぐる法律論議
第2章 ロボットの起源と文化
 Ⅰ 語源
 Ⅱ 奴隷としてのロボット
 Ⅲ 脅威としてのロボット
 Ⅳ sci-fi作品のアナロジーを排除すべきか
 Ⅴ ロボットに対する文化的認識の相違
第3章 ロボットの定義と特徴
 Ⅰ <感知/認識>+<考え/判断>+<行動>の循環
 Ⅱ 自律性とその諸段階
 Ⅲ 定義をめぐる論争
 Ⅳ 予測警備(プレディクティブ・ポリーシング)
 Ⅴ 人工知能(AI)
第4章 ロボットの種類と法的問題
 Ⅰ ロボットの分類
 Ⅱ ロボットの使用領域
 Ⅲ 生物学を応用したロボット
 Ⅳ ヒューマノイド・ロボット
第5章 ロボット法の核心
 Ⅰ 制御不可能性と不透明性
 Ⅱ ロボット不法行為
 Ⅲ 小括
第6章 ロボットが感情を持つとき
 Ⅰ <考え/判断>することへの懸念
 Ⅱ ロボットは「意識」を持つに至るのか
 Ⅲ ロボット憲法-「ロボット権」?!
 Ⅳ ロボット刑事法-ロボットの刑事責任をめぐる論争
 Ⅴ シンギュラリティ・2045年問題
第7章 ロボット法のゆくえ
 Ⅰ 内閣府「人間中心のAI社会原則検討会議」
 Ⅱ 総務省「AIネットワーク社会推進会議」の活動と「AI利活用原則」
 Ⅲ OECD・AI原則

※第7章は増補版で追加された内容、増補第2版内容については、冒頭増補第2版のリンク(弘文堂HP)にて[試し読み]が出来るで興味のある方は参照してください。

著者

著者である平野晋さんについての詳細は中央大学の研究者データベースをご覧ください。

c-research.chuo-u.ac.jp

主な経歴はというと現在中央大学国際情報学部教授、同学部長、

ニューヨーク州法曹界 ニューヨーク州弁護士などなど・・・

 

ロボット工学3原則

第1章 ロボット工学3原則についてです。
ロボット工学三原則(+1)とは以下に示す通りになります。

  • 第一原則:    ロボットはヒトに危害を加えてはならず、または不作為によってヒトが危害に出くわす事態を許してはならない。
  • 第二原則:    ロボットは、ヒトが下した命令に従わなければならない。ただし、その命令が第一原則と抵触する場合には従わなくともよい。
  • 第三原則:    ロボットは、自身の存在を守ることが第一原則または第二原則と抵触しない限りにおいて、自身の存在を守らなければならない。
  • 第零原則:    ロボットは人類に危害を加えてはならず、または不作為によって人類が危害に出くわす事態を許してはならない。

このロボット工学3原則とはアメリカの生物学者であり作家でもある【アイザック・アシモフ】が1950年代~60年代に出版された作品群により世に広まったとのことですが、私はこの本を読むまで【ロボット工学3原則】というものを知らなかったですし、これが半世紀以上前から存在していたことに驚きました。

また、私の本業であるシステム開発において、特に当たり前のように第一原則は守った開発をしてきたこともあり驚きました。

 

アイザック・アシモフ】、【ロボット工学3原則】についてはウィキペデイアにもページがあるのでリンク貼りますが、ページがあるということはレアなものではないということなので、私が無知だったことも結構ショックでした(笑)

 

ja.wikipedia.org

ja.wikipedia.org

 

ロッコ問題

第1章 ロボット工学3原則

Ⅱ ロボット工学3原則をめぐる法律論議に書かれている【トロッコ問題】についてです。

ロッコ問題とは・・・

概要は以下の通りです。

暴走するトロッコの行き先に5名がいて、それを避けようと転轍機を右方向に切り替えればその先にいた1名を轢くことになる。

上記をどうすべきかを問う倫理学上の問題・課題です。

本書では【トロッコ問題】から派生する類似問題や判例が随所に散りばめられ降り、ロボットやAIといった先端技術と倫理や法律について冒頭から考えさせられます。

 

ちょっと考えてみました。

ロボットが判断できるのか?人間だって判断できない。

でも、ロボット(AI)はヒューマンエラーを回避するためが主目的なので、人間が判断できないことを判断するのは目的から外れてはいない。

但し、設計するのは人間であってロボット(AI)は与えられた条件の最適解を人間より早く導き出すだけ。
人間が出来ることは(対象となる6名の素性が解らないという前提とした時)1名の命と引き換えに5名を助けるか、何もせずに5名の安否を祈るだけであろう。

一方ロボット(自動運転)の場合、現在の技術で人間以上のことで出来ることといえば対象者6名(5名+1名)を認識特定して判断するくらいであろうけど、判断条件をプログラミングするのは人間であり、そのプログラムの判断材料に性別、年齢、人種、所得などが含まれるとき、それは差別になり設計側の責任が問われるであろうから誰もが納得するような答えはないように思える。

 

 仮にロボット(AI)が自律的に判断できるようになったとして、裁判になった時の責任は製造(設計)者になるだろうから、倫理を問われるような問題を提起されると設計(研究・開発)の足枷にしかならないのではないかと思った次第です。

 

【トロッコ問題】もウィキペデイアにページがあるのでリンク貼りますが、ページがあるということはレアなものではないということなので、再び私が無知だったことがショックでした(笑笑)

ja.wikipedia.org

 

人工知能(AI)の定義

第3章 Ⅴ 人工知能(AI)についてです。

本書では人工知能(AI)について以下のように書かれています。

人工知能「AI」とは、知的行動を示す機械を創り出すことを扱うコンピュータ科学の一種である。
AIとは、たくさんの工学技術を包含する概念であり、その中にはエキスパート・システム、ニュートラル・ネットワーク、バーチャル・リアリティ、および人口生命、等々が含まれる。
・・・AIは複雑な問題を効率的に解決したり、パターンを認識したり、複雑なルールに基づく意思決定をすることに使うことができる。
ニュートラル・ネットワークは、・・・ヒトの介在なしに新しい知識を取り入れて、
自身の意思決定「能力」を向上させることができる。

 

ウィキペデイアのリンクも貼っておきます。

ja.wikipedia.org

 

AI、AIと騒がれて久しいですが、私自身が誤った解釈をしていてたこともあって世の中で使われている【AI】というワードに凄く違和感というより嫌悪感すらあったのです。

今までの私の勝手な解釈は人工知能(AI)とは自律性や自発性、そして感情をも持つヒトによって作られた知能という解釈でプログラミングされた通りのことをするものではなかったんですが、本書を読み、改めて調べたりすると・・・

巷でいう人工知能(AI)は前述した通り、ヒトが設計したプログラム(アルゴリズム)に過ぎないってことを再認識して拍子抜けしています。

もちろん入力から出力までの処理能力・速度はヒトより速いんですけど、あくまでのヒトによって作られた(プログラミングされた)知能です(笑)

 

交通領域

第4章 Ⅱ ロボットの使用領域 5 交通領域についてです。

読んだ増補版は2019年発行ですが、それから【自動運転】についてはさらに進化を遂げていますが、著者は2019年時点でも【自動運転】について法律という目線で、懸念点を過去の判例を挙げながら、本稿を手厚く書いています。

 

また、本稿において「国際的な議論のためのAI開発ガイドライン」というものを示していますので、それを以下に記しておきます。

 

連携の原則 開発者は、AIシステムの相互接続性と相互運用性に留意する。
透明性の原則

開発者は、AIシステムの入出力の検証可能性

および判断結果の説明可能性に留意する。

制御可能性の原則 開発者は、AIシステムの制御可能性に留意する。
安全の原則 開発者は、AIシステムがアクチュエータ等を通じて利用者および
三者の生命・身体・財産に危害を及ぼすことのないように配慮する。
セキュリティの原則 開発者は、AIシステムのセキュリティに留意する。
プライバシーの原則 開発者は、AIシステムにより利用者および第三者のプライバシーが
侵害されないように配慮する。
倫理の原則 開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。
利用者支援の原則 開発者は、AIシステムが利用者を支援し、利用者に選択の機会を適切に
提供することが可能となるように配慮する。
アカウンタビリティの原則 開発者は、利用者を含むステータスホルダに対しアカウンタビリティ
果たすように努める。

 

上記の【国際的な議論のためのAI開発ガイドライン】は適宜修正・加筆されているようですが、ちゃんと守っているんですかね?
法律ではなく、ガイドラインなので順守が義務付けられている訳ではないでしょうが、開発側の自分からするとかなり面倒くさいです。
でも、ロボット兵器とか開発が進む世の中ですからガイドラインではなく国際法として整備しても良いとさえ思えますね、開発者としては本当に面倒くさいし設計工数も増大しますけど(汗)。

話を本稿に戻して【トロッコ問題】と同じ場面、類似する場面でどうするのかとか、法的に責任の所在とか読んでいて色々と考えさせられることもあり、とても興味深かったです。

ちなみに【自動運転】は現在レベル0~レベル5までありますが、完全自動化と言われているレベル5でもヒトが行ってきた自動車の運転の代替レベルであり、AI将棋のように何手も先を読むような予見的なものはありません。

あくまでヒトレベルの自動車運転の代替です。

※ヒトが運転時に認識するレベルでの運転代替ということです。

 

シンギュラリティ・2045年問題

第6章 Ⅴ シンギュラリティ・2045年問題についてです。

まずはシンギュラリティとは?って話になると思いますが、詳しくはウィキペデイアでご確認ください。

ja.wikipedia.org

【シンギュラリティ・2045年問題】とは以下の通りです。

ヒトよりも優れた知性を持つ存在を光学技術的に創造する時期、超人的知性を想像して人類の時代が終焉する時期

 

問題を提起しているのは技術的な側面からに過ぎない。

すでに処理能力や処理速度はヒトを超えていますし、2045年までには自律性、自発性とかを備えたものも出来ていると思いますが、技術的には出来ても、そのための法整備がまったく追いつかないと思います(特に日本では・・・)。

また、技術的側面においても感情を持つとなるとさらに時間が必要な気がしますので、

2000年問題と同じように思えますけど・・・どう思いますか?

 

ロボット法のゆくえ

第7章 ロボット法のゆくえ Ⅱ 総務省「AIネットワーク社会推進会議」の活動と「AI利活用原則」についてです。

以下は2019年時点での【AI利活用原則】についてです(適宜修正・加筆されているようです)。

適正利用の原則 ア) 適正な範囲・方法での利用
イ) 人間の判断の介在
ウ) 関係者間の協力
適正学習の原則 ア) AIの学習等に用いるデータの質への留意
イ) 不正確または不適切なデータの学習等による
  AIのセキュリティ脆弱性への留意
連携の原則 ア) 相互接続性と相互運用性への留意
イ) データ形式プロトコル等の標準化への対応
ウ) AIネットワーク化により惹起・増幅される
  課題への留意
安全の原則 ア) 人の生命・身体・財産への配慮
セキュリティの原則 ア) セキュリティ対策の実施
イ) セキュリティ対策のためのサービス提供等
ウ)AIの学習モデルに対するセキュリティ
  脆弱性への留意
プライバシーの原則 ア) AIの利活用における最終利用者および第三者
  プライバシーの尊重
イ) パーソナルデータの収集・前処理・提供等に
  おけるプライバシーの尊重
ウ) 自己等のプライバシー侵害への留意および
  パーソナルデータ流出の防止
尊厳・自律の原則 ア) 人間の尊厳と個人の自律の尊重
イ) AIによる意思決定・感情の操作等への留意
ウ) AIと人の脳・身体を連携する際の生命倫理
  の議論の参照
エ)AIを利用したプロファイリングを行う場合に
  おける不利益への配慮
公平性の原則 ア) AIの学習等に用いられるデータの代表性への留意
イ) 学習アルゴリズムによるバイアスへの留意
ウ) 人間の判断の介在(公平性の確保)
透明性の原則 ア) AIの入出力等のログの記録・保存
イ) 説明可能性の確保
ウ) 行政機関が利用する際の透明性の確保
アカウンタビリティの原則 ア) アカウンタビリティを果たす努力
イ) AIに関する利用方針の通知・公表

あくまでガイドラインですが、個人的に気になったのは⑧公平性の原則 ウ)人間の判断の介在ですね。

人間が介在することで公平性が確保されるとは思えない、人間が介在することで不公平が確保されているように思えるんですけど・・・どう思いますか?

 

まとめ(主観です・・・)

まとめといっても・・・全くまとまってなくて、AIで文書校正して欲しいくらいなんですけど(笑)

本書の優れているところは以下の3点です。

①SF(sci-fs)映画を例にしている
②各種判決例(ほぼ米国)掲載
③各種ガイドラインを掲載
タイトルだけで敬遠してしまう人も多いと思いますが、
上に挙げた3点が本書を読み易く、かつ読者が興味を抱き易く効果的に使われているところになります。
それらから様々なシチュエーションを想像しては膨らませ、さらに法的にはどうなのだろうとか、倫理的にはどうなのだろうとか、本から目が離れてしまいがちになりますけど引き込まれます。

 

本書ではなく増補第2版の試し読みで見たのですが、研究・開発者から本書は科学の進歩を邪魔している旨の指摘を受けたそうです。
私は研究・開発者側の人間なので、確かに本書はそういった側面もあると思います。
私が読んで感じたのは邪魔というよりも、「こっちはそんなにすぐに対応出来ないで、ちょっと待ってください」というような法に携わる側のジレンマです。
なぜなら法というものは社会情勢に応じてアップデートはされていくものの、その歩みはヒトのみによって行われているゆえに進化する速度は科学の進歩と比べるまでもなく遅いからです。

 

著者は本書で科学的な進歩を法で邪魔しようとしているわけでなく法的な懸念点を提起しているだけです。

 

今までの設計は最終的にヒトが介在することで法とか倫理とかの責任をヒトに押し付けていましたが、それらを設計者が担わなければならないところまで技術は進歩してきているし、設計者側はそれらを考慮した設計に踏み込んでいかざるを得ないところまで来ていると感じた次第です。

 

専門知識がなくても読み物としても面白いので、機会があったら多くの人に読んで欲しい良書ですよ。


おまけ

1.【自動運転】

ロボット(AI)の目的としてヒューマンエラーを回避するということがあります。
国内では高齢者の自動車事故が多発していますね、原因のほとんどはブレーキとアクセルの踏み間違い。
ブレーキとアクセルの踏み間違いとかは自動運転ほど高度な技術ではないので、公道を走る車にはブレーキとアクセルの踏み間違いを抑止する機能の装備を全車に義務付けしても良いんじゃないかと思います。

 

ちなみに高齢者以外でブレーキとアクセルの踏み間違い事故ってあるんですかね?
ある情報番組でコメンテーターが言ってましたけど、高齢者は自分が”間違ったことをするわけない”という自意識から踏み間違った事実を認めないというようなことを言ってました。
自分は間違っていない、車が誤作動してるって解釈するらしいです。
ちゃんとしたデータとかあるか解らないですけど、まぁそうなんだろうなと納得してしまいました。


2.【ロボット】

ロボットというワードで多くの人が思うのがヒト型ロボット(二足歩行ロボット)だと思うのですが、産業用機械にも古くからロボットというワードが使われてきました。

産業用機械がすべてロボットかというと、ロボットか非ロボットかには線引きがあり、解り易いところでいうと単純なただ動くだけのベルトコンベアは非ロボット、前述のベルトコンベアにセンサーが付いて、動作/停止が人を介さずに行われればロボットという解釈になるらしいです。

これにセンサーが単純にON/OFFだけでなく、センサーON要因を解析(例えばヒトか否かなど)要素が加わると、これはAIベルトコンベアというくくりになります。


最後まで読んでいただきありがとうございました。

 

 

ブログランキング・にほんブログ村へ

にほんブログ村