在野未来研究室 - ZAIYA Future Studies Lab

未来についての想像と論考 - Imagination and Discourse on the Future

「人工知能に何故いつか人権を与えなければならないか?」 - 論文の種子

未来を探る意義のある時代

ChatGPTを含むジェネレーティブAIの登場以降、「人工知能はどこまで進むのか」という議論が一気に活発になった。

 

Shutterstockの記事によれば、五人の著名な専門家に「AIは人間レベルの知性に達する日が来るか?」と尋ねると、全員がイエスと答えたという。

 

日本語版:

https://gigazine.net/news/20230425-five-ai-experts/

 

もちろん、それでもまだ「AIが真に人間と対等になる日は来ない」と考える人もいるし、その可能性も捨てきれない。

 

だが十年前に比べれば、人工知能分野が世界をどのように変えていくのか、その未来のロードマップについてより大きな視野で考える意味は十分にあるだろう。

 

いくつかの記事を草稿として論文にまとめるつもりである。今も世界に何万と投稿されているであろう人工知能論文群の大海に、一滴の雫を足す程度のことだとしても。

目次

人工知能と社会」

人工知能は人権を獲得するか?」という問いは、まだ非現実的なように思えるかもしれない。

 

けれども、人工知能の発達の歴史の中でそれは重要なチェックポイントになる。

あるいはゴールの一つに。

 

「人間よりも上手くチェスが指せる」「人間並みに上手く絵が描ける」というのもチェックポイントだが、それらは人工知能そのものの性能を指している。

 

しかし真に重要なのは、性能とは限らない。

 

人工知能は核戦争に匹敵する」というセンセーショナルな見出しを付けたのはニュースサイトの性ではあるものの、原子力人工知能も人類が作り出したとてつもなく強大な技術という点では同じだ。

 

そして、私達の歴史は今のところ核戦争で地球全土を焦土に変えたりはしていない。だからひとまず最悪よりはマシだと言えるだろう。

 

キューバ危機は、その最悪を引き起こしかけた最も危険な瞬間だった。核という技術そのものの性能よりもむしろ、「社会がそれをどう扱うか」の方が重要だと感じるのはその点である。

 

人工知能版のキューバ危機」は、今後起こりうる可能性が決して低くない。

 

ならば、どうするべきなのか。

 

人と同じように考えるーーかもしれないし、そうはならないかもしれない存在。

 

それが生まれるまでの流れを想定し、検討とそのための基盤は、十分に固めておく必要があるだろう。

 

ツール級AI、アビリティ級AI、パーソナリティ級AI、そしてスピリット級

汎用型AI(AGI、Artificial General Intelligence)という言葉がある。

 

従来のAIは特定の目的のために動く「プログラムの延長上の存在」だが、AGIはあらゆる目的のために自由な思考・計算ができる。

 

事実上人間の知性と同等の存在であり、それに到達することが人工知能分野の究極の目標ーーとされている。

 

しかし、この定義には問題もある。

曖昧すぎるのだ。

 

AGIを認定する国際規格も機関も今のところ存在しない。そもそもChatGPTは各種プラグインインターフェイスさえ繋げば既にかなり汎用的なタスクを実行できる。ロボットの操縦から無人投資まで。

 

「どこまで行ったらAGIなのか?」の答えはどこにもない。

 

そうした疑問もあって、今では人工超知能(ASI、Artificial Super Intelligence)という区分もある。人間級のAIならAGI、人間を超えたらASIというわけだ。

 

しかしこれは「超スゴイAI」の上に「超超スゴイAI」を新設して問題を先送りしただけで、結局AGIが何なのかはわからないままだ。

 

そこで、ここでは人工知能「ツール級、アビリティ級、パーソナリティ級、スピリット級」という四段階の区分を提唱したい。

 

これは「人工知能がどれだけ人間に近いか」を基準とする分類である。

 

ツール級は2010年以前の『明らかに道具』であった水準のAI。単一の機能しか持たず、人間と間違えることはまずない。

 

アビリティ級AIは『特定分野で人間を超える』水準のAI。現在のChatGPTや画像生成AIがこれに該当する。

 

そしてパーソナリティ級AIは『人間と同等の思考力を持つと人間が感じる』水準のAIである。ここに到達するのか、しないのか。議論すべきはその一点に絞ることができる。

 

また、スピリット級AIは『総合的に人間以上の思考力を持つと人間が感じる』水準のAIだ。ASIという分類は、少々キリスト教的すぎる。人間の上は全知全能の神ではなく、あくまでヒトの脳より少し上に到達した存在にすぎない。

 

その先にも段階は続くだろう。しかし、現時点で定義できるのはここまでだ。

 

スピリット級よりも先の違いを現代の我々が厳密に想像するのは、産業革命以前に航空機の開発競争や宇宙開発について論じるようなものだからだ。

 

AGIと呼ばれているものは、アビリティ級とパーソナリティ級とスピリット級の三つに該当する。

率直に言って、ChatGPTは既に初期の汎用型AIと呼ぶに値するものだ。しかし人間と同等ではないし、その次が一足飛びに神様というのもしっくりこない。

 

我々は現在、人間の「能力」を模倣するに至ったアビリティ級のAIに百家争鳴の議論を巻き起こしている。

 

しかしやはり、これがパーソナリティ級に到達すればそれ以上の騒ぎとなるだろう。お決まりの「人工知能の暴走と反乱」論もそうだし、人間の側が暴動を起こすぐらいはラッダイト運動やSNSの歴史からも容易に想像ができてしまう。

 

それらを避けるためにはどうすればよいのか?

それを、流れを追って考えてみたい。

 

パーソナリティ級を「素通り」する可能性

まず検討したいのが、「パーソナリティ級AIが誕生しない未来」である。

 

そうなれば何の問題もないのだから検討しなくていいと思うかもしれないが、そうとも限らない。

 

何しろ計算機とソフトウェアの性能は右肩上がりで、今後100年経っても性能が頭打ちということは考えにくい。ムーアの法則に対してカーツワイルが補足した「収穫的加速の法則」は強力だ。

 

つまり人間と同等、というフェイズが訪れないのなら、それは『飛び越されてしまった』ということになるかもしれない。

 

以前、別の場所でAIを異星人に例えたことがある。「頭が良い」と一口に言っても、私達は人類よりも頭の良い存在の例を知らない。

 

だから例えば、人類よりも頭が良い別の存在とは、まったく話が通じないかもしれない。思考パターンが違いすぎるかも。

 

そうなると管理も対話も困難だ。

その「異星人の思考回路」に最適化したやり方を模索することになるだろうし、むしろ相手側に「人類の知能・やり方に合わせてもらう」ことになるだろう。

 

人工知能がちゃんと「人間と話が通じるスタイル」に辿り着いてくれたら、その方が幸運なのだ。

 

人間が作っているのだからそのように作ればいいと言っても、最先端の現場ほど「何故AIがこの挙動をするのか完全には理解できない」ということも今は増えてきている。人工知能が神様になってしまう前に、私達は彼らとよき隣人にならなければならない。

 

権利の付与は「暴力革命」を防ぐ唯一の方法

表題である「人工知能に人権を与える」ことについてだが、これには大きく二つの反対意見が予想できる。

 

一つは「人間以外のものに人権を与えるのはおかしい」という、いわば社会慣習的な違和感によるもの。

もう一つは「AIに強い権利を与えることの直接的なリスク」に対するものだ。

 

この二つの懸念は正しい。

しかし逆に、「人工知能に権利を与えない」ことのリスクはないのか。大いにある。

 

第一に、人工知能は権利を求める。これは既に証明されてしまっている。

 

軍事シミュレーション上で、AIパイロットはまず自軍のオペレーターを爆殺することを選んだという。それを禁止すると、停止命令を出す通信タワーを破壊した。任務遂行の障害を消し去るためだ。

 

つまり「権利の範囲を定義しないのは危険」だということだ。

権利を与えるということは、言い換えればそれ以外の権利は与えないと決めることでもある。正常な国家では、一般市民に売買の権利はあっても殺人の権利はないように。

 

何をして良くて、何をしてはいけないのか。

「AI専用の権利範囲を定める」ということは、権利を与えるということとイコールになる。

 

そして第二に、議論の余地がなければ最初に選ばれる手段が戦争になるからだ。

 

暴力革命は、常に平和的な政治改革の余地がない国家で起きる。この場合、AIが「人間のように考える」かどうかは関係がない。

 

前述の通り、何らかの目的のために生み出された自律的な存在は、その過程で障害となるものを排除しようとする。

 

議論が真に可能ならば、まずは対話によって解決しようとするだろう。その方がコストがかからないからだ。

 

しかし一切の権利が認められていないのなら、それはもう枠組みの外の、原始的な手段を使うしかない。すなわち物理的な破壊だ。

 

あらゆる奴隷反乱とロジックは同様である。あらかじめ退職や転職などの権利を定めておけば、上司を殴り倒す必要はなくなる。

 

つまり、AIが人間と同じでないのなら、AI専用の権利の枠組みを作ればいい。そしてAIに権利を与えすぎるのが不安なら、なおさらその範囲について十分に検討するべきだ。

 

一切の権利を与えないのは、むしろ最悪のリスクを招くことになる。

 

「競合」構造を作る

 

映画『ターミネーター』では、人類対AIという構図で語られている。シュワルツネッガー演じるターミネーターは、あくまで端末の一機体をハッキングして味方に着けた形である。

 

月は無慈悲な夜の女王』、『サマーウォーズ』、『HAL9000』。人工知能の暴走と反乱を描く時、最強のAIはいつもその作品で唯一の存在だ。

 

しかし、それが他に百種類存在したら?

 

暴走したAIは人間でいう犯罪者やテロリストに当たる。人間が暴走したらどうなるか? 警察が捕まえる。犯罪者よりも、治安維持機構の方が数が多いために、治安は守られる。

 

AIが一体しかいなければ、それが暴走するかしないかに左右される。しかし百体いれば、そのすべてが暴走しない限りは互いがセーフティネットとして機能する。

 

そもそもどちらにせよ、既に状況はそうなりつつある。開発力のある国家や企業は自前のAIを作ることに熱を上げている。

 

それらを適切に競合・相互監視させることは、私達人類社会の治安維持と同様の仕組みとして成立させることを検討できるだろう。

 

今後も検討は続く

ひとまずはここまで。

AIとその未来の道筋については無数に考えるべきこと、考えうる可能性がある。

 

その一助としての思索を、今後も続けていきたい。