J-CASTニュース名誉編集長の山里亮太(南海キャンディーズ)憲法について取材をすすめるJ-CASTニュース名誉編集長の山里亮太(南海キャンディーズ)。これまで、憲法の考え方や第9条の見方、万が一「冤罪」で捕まったときの対応などを聞いてきました。今回は、今話題になりつつある「AI」と人権についてです。お話を聞くのは、憲法学者の戸松秀典先生です。買い物データが就職に影響?山里: 今、AIがいろんなところに入ってきていますよね。同時にAIと人権の問題も浮き彫りになりつつあります。(編注:AIの予測に基づく個人の分類や仕分け、社会的排除は13条の「個人の尊重」にあたらないのかという問題。また一方で、AIにも知的存在としての敬意を払い、何らかの権利を与えるべきだという意見もある)日本ではどんな状況なんですか?憲法学者の戸松秀典氏戸松: EUではロボット法という法律ができて、個人の利益や権利を、ロボットによって侵害されることがないような法制度を作っています。しかし、日本は、国会議員の中でロボット法の必要性を大きく掲げる人はいない状況です。私の周りの憲法学者でも、AIによる個人の利益や権利の侵害について専門で研究している人はまだ少ないようです。私も、ごく最近、強い関心を抱いて注目しているところです。憲法の視点でAIを見ると、肝心なことは憲法13条「すべて国民は、個人として尊重される。(以下略)」に関係してきます。この個人として尊重されというのは、すごいAI、すなわち優秀なロボットが登場すると、個人がロボットのいうままになってしまうから、「個人を尊重するロボットの使い方をしなくてはならない」という趣旨の法制度を作らなくてはいけないということになります。山里: たしかに13条ができた時にはAIなんていうのが出てくるなんて全く想像がつかないですもんね。戸松: そうですね。個人は尊重されるべきで、人格は侵害されないようにという憲法のうたう基本価値のもとに議論をして、法制度を作ることは必要なのですよ。つまり、個人の尊重、個人を害するようなこと(人権侵害)を防がなければいけません。もっと簡単に言えば、AIが膨大な個人情報を分析して、その結果から導かれた人間らしさを損なうような個人のプライバシーデータがあった場合に、そのデータを使って就職の選別をしてはならないとか。山里: 就職の書類選考にAIが使われている、というニュースもありました。戸松: 今はもうそういうシステムは存在します。個人の行動履歴や個人情報は、その人がカードで買い物するとか、アンケートに答えた履歴データをビックデータとして企業が集約しています。そして、ビックデータの分析をすると、この人物は革新派だとか、よろしくない対異性癖があるとか、そういう傾向が出ます。そういう個人情報が企業の人事課の手に入り、就職試験の際に、社風に合うかどうか、社の設けた基準に達するかどうかを審査するという話ですね。山里: すごいことですね。戸松: だから就職試験にエントリーした人は、反論する機会もなくチャンスを失う可能性があります。こういうことがあってはいけないので、EUのロボット法のような法制度を作る必要があると思います。ただ、日本では法制度の制定はほとんど進んでおらず、企業によっては、倫理規定を設けているところも、ごくわずかですが登場しています。13条を持ち出すまでもない山里: そういう法制度ができたら、就職にAIによるビックデータ分析を使うというような流れは止められるんですか。戸松: そうですね。止められます。法制度に反したAIやビックデータを利用して企業が採用判断したら、その行為は裁判所で争われることになりますから。山里: そうか。法がいない以上は、手出しできないということですね。戸松: まあ、今のままでは企業のやりたい放題になってしまうおそれがあります。山里: 今現在の"戦い方"としてはやはり憲法13条になるんでしょうか。戸松: 13条は関係します。しかし、13条を持ち出さなくても、人の人格を害するような採用のやり方は、そもそもよくない。山里: AIに対しての法律は日本にどのくらいあるんですか。戸松: 管轄は総務省ですが、ほぼないと言っていいでしょう。同省内での研究会はやっているらしいのですけれど。山里: 法整備には至っていない?戸松: そうです。議員の中で、AIに関する法整備を大切だと思って動いている人は、あまりいないのでしょう。山里: 先生が思う、この後AIが出て来たときに起こる人権侵害はどのようなものだと思いますか。戸松: いま、ロシアとアメリカがロボットによる兵隊を作ると言っています。人間を使って戦争をすると、人間の命が奪われますから、ロボット同士で戦わせるのです。もう漫画の世界です。ロボット兵士による戦争に反対する国もありますが、でもすでにパキスタンで、無人機によって人が戦争被害にあっているという報道もあります。山里: 兵士と市民とか兵士と兵士が向き合った時は、話をしたり意思疎通ができますけど、ロボットと人間だと、どういう問題が起きると思いますか。一番怖いのは裁判官がロボットになること戸松: 会話という部分では、AIによるパターン学習はあると思います。しかし、「相手の人民が、気の毒だなぁ」っていう感情は人間だから出てくるけれども、ロボットにはデータとして組み込んでおかないと、感情は理解できないと思います。利益優先、損得勘定だけでAIを進化させていくと、危険だと思います。ただ、ロボットを作るのは人間ですから、人間が人間らしさというフィロソフィを失わない限りは、私は、AI化で変な方向に設計されることはないとも思いますが。山里: なるほど。戸松: また、犯罪の捜査にもいろんなデータを使ってAIが分析し、被疑者がどういう人間かっていう傾向を知って処遇を変えたり、被疑者を追跡したりしてロボットが捕まえたりする時代も来るかもしれません。だから早くブレーキをかけないといけないと思います。警察もそうですが、一番怖いのは裁判官がロボットになることです。いろんなデータ、過去の裁判のデータを全部入れて、こういう事例にはこういう判決が良い、正しいというふうなAIによるロボット裁判官ができてしまうと、人間らしさを発揮できる法律家がいなくなってしまいます。山里: AIに事例に沿った正しい判断ができるか、ですね。戸松: 裁判官だけでなく、「AIの進歩で弁護士が必要でなくなる」ということを、ある会合で言ったんですが、そこにいた弁護士は「優秀なロボット弁護士を作る役割を私がやるから大丈夫」って言っていました。山里: なるほど。「ちゃんと人間らしい判断ができる、いい法律家ロボットは私が作りますから」っていうことですね。(続く)プロフィール戸松秀典(とまつ・ひでのり)憲法学者。学習院大学名誉教授。1976年、東京大学大学院法学政治学研究科博士課程修了(法学博士)。新・旧司法試験委員、最高裁判所一般規則制定諮問委員会委員、下級裁判所裁判官指名諮問委員会委員、法制審議会委員等を歴任。
記事に戻る