AI WEB

イーロン・マスクらがAI開発の一時停止を訴えた内容とは

2023-04-09

ChatGPTの登場で、毎日のように新しいAIツールが紹介されるなど急速に進化していく技術に追いつけず、執筆活動が停滞気味のねこまんまです。

「そのスピードにつていけない!」と叫びたくなるところに持って、イーロン・マスクやアップルの共同創業者のスティーブ・ウォズアニックなどが、「AI研究所へのAI開発の6ヵ月停止の要望」に署名したことがニュースになりました。

ちゃちゃ

もう、そのニュース古くないか?

そう思ったけど、今後を考えるうえで、重要なことが書いてあるので要約してみました。

ねこまんま

この記事では、この署名の公開書簡の内容を紹介しながら、AI開発の背景や考え方を解説します。

この記事でわかること

✅署名の公開書簡には、どんなことが書かれているか
✅AI開発レースの現状とリスク
✅私見

この記事で参照した文書はこちらです。

■FLI(Future Of Life Institure)の公開書簡
巨大なAI実験の一時停止:公開書簡-フューチャーオブライフインスティテュート (futureoflife.org)

■アシロマの原則
AI Principles Japanese – Future of Life Institute

■OpenAIの宣言
Planning for AGI and beyond (openai.com)

イーロン・マスクらが署名した公開書簡とOPen AI の考え

イーロン・マスクらが署名した公開書簡は、FLI(Future Of Life Institure)というボランティア運営の研究支援団体から出されています。

はてな丸

FLTって何さ。

FLI(Future Of Life Institure)は、もともとイーロン・マスクが10億円を寄付したことで有名になった団体で、AIについての共通認識の土台を構築しようと数々の提言をしている団体よ。

ねこまんま

イーロン・マスクがFLIに大金を寄付した理由は、AIの暴走を阻止するためと言われています。(2015年7月)

とは言え、イーロン・マスクがOpen AIに10億円の初期投資を約束したのも同じ時期です。(2015年12月)

そして、イーロン・マスクは2018年にOpen AIを辞任していますから、これは何かあるのかなと勘ぐってしまいますね。

ちゃちゃ丸

イーロン・マスク対OPen AI の対決か?

そういう見方もあるけど、今回はあくまでも論理的に分析します。

ねこまんま

FLIが提唱するAI開発の倫理『アシロマの原則』

まずは、AI開発に求められる倫理について、FLIが公開した『アシロマの原則』について、軽く触れたいと思います。

■アシロマの原則
AI Principles Japanese – Future of Life Institute

AI開発において広く利用されている基本的な原理があるようです。

この項目が23もあって、全部は紹介しきれないのですが、

要は、AIは有益な知能だけどリスクもあるからこういう考え方をもとにちゃんと作っていけないよね、という原理原則です。

ここでは、主な提言だけを紹介しますので、原文を見てもらうともっと理解できると思います。

アシロマの原則
研究目標について
競争の回避について
人間の価値観について
・高度なAIの重要性

研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべき

一番最初にあげられているのが、「人工知能は、無秩序な知能ではなく、有益な知能とすべき」という言葉です。

まさに、今のAI開発競争の現状を危惧していたのではないかと思ってしまします。

ちゃんと秩序だって、人類にとって有益なAIというものを作る必要があるよね、ということです。

安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべき

人工知能システムを開発するチーム同士は、積極的に協力すべきであると提唱しています。

現状はどうなっているかというと、めちゃくちゃ競争激化していて、協力どころかすごい対立関係とかガリガリ競ってる状況にありますよね。

「これまずいんじゃないの」って、ことが言われる原因の一つになっています。

人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべき

ちょっと抽象的な文章で、わかりにくいです。

要は、人間を脅かしたり、人間の精神とか尊厳を犯してはいけないよという原理です。

今のAI開発競争がどうなっているかというと、人間の仕事がなくなるんじゃないかという声があがっていますよね。

もちろん、生産性を上げるという点ではメリットが大きいですが、一方で仕事を奪われた人はどうするの?という問題があります。

高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべき

AIは重大な変化をもたらすほどの力があるから、適切な計画・管理が必要だよね、と言う原理です。

ちゃちゃ丸

ふむふむ・・・まともな原理・原則だよね。

ここにあるような「『アシロマの原則』に今のAI開発は沿っていないじゃん!」

ということが、イーロン・マスクらが一時停止を求める署名した公開書簡の主張です。

Open AI のAGI宣言で述べている考え方

一方で、Open AI では、どのような考え方で高度なAIを開発しているのか、ちょっと見てみましょう。

■OpenAIの宣言
Planning for AGI and beyond (openai.com)

AGIとは、一般的に”汎用性人工知能”と呼ばれています。

一時停止を求める署名した公開書簡では、Open AI のこの部分『AGI宣言』にも言及しています。

社会に適応するのに十分な時間を与えるため、減速することは重要かも

ある時点で、展開の長所と短所 (悪意のあるアクターに力を与える、社会的および経済的混乱を引き起こす、危険な競争を加速させるなど) のバランスが変化する可能性があり、その場合、継続的な展開に関する計画を大幅に変更する可能性があります。

At some point, the balance between the upsides and downsides of deployments (such as empowering malicious actors, creating social and economic disruptions, and accelerating an unsafe race) could shift, in which case we would significantly change our plans around continuous deployment.

Open AI AGI宣言より引用

AGIは驚くほど大きな変化が起こる可能性があります。その場合、計画を大幅に変更する可能性があるとOPen AIは『AGI宣言』の中で言っています。

イーロン・マスクが一時停止を求める署名した公開書簡では、「それ今でしょ!」と言いたいわけです。

ちゃちゃ丸

痛いところ突いてきたわけだね。

一時停止を求めている公開書簡の主張とは

では、先ほどの原理・原則を踏まえたうえで、今のAI開発レースがどんなふうになっているか、公開書簡ではどのように触れられているか解説していきます。

■FLI(Future Of Life Institure)の公開書簡
巨大なAI実験の一時停止:公開書簡-フューチャーオブライフインスティテュート (futureoflife.org)

現在の問題点は2つです。

計画・管理が行われていない。
制御不能な競争になっている。

計画・管理がない

高度なAIは地球上の生命の歴史における大きな変化を表す可能性があり、相応の注意とリソースで計画および管理する必要があります残念ながら、このレベルの計画と管理は行われていません

 Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, 

FLI(Future Of Life Institure)の公開書簡

高度なAIを作っていくためには、計画して管理されているというのは非常に重要です。

残念ながら、そのようなことは全然行われていません。

これが、今回の公開書簡が行われている非常に重要なポイントです。

1度停止して、「こういう計画や管理体制で作ろうよ」というのが今回の提案のベースになっています。

制御不能な競争

ここ数か月、AIラボは、作成者でさえも誰も理解、予測、または確実に制御できない、これまで以上に強力なデジタルマインドを開発および展開するための制御不能な競争に閉じ込められています。

recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

FLI(Future Of Life Institure)の公開書簡

ここ数ヶ月間のAI激化は、「もはや、AI開発者自身も理解もできず、予測もできない制御不能な競争に陥ってるんじゃないの」っていうことを指摘しています。

確かに日本でも、いろんな企業や個人が、「ChatGPTの機能を使ってこんなアプリができました。」「OPen AI 使ったツールを出しました。」と、毎日新しい情報が流れてきています。

公開書簡での問い

現在の問題を提示したうえで、公開書簡では、「果たして、これで本当にいいのか、考えるべきなんじゃないか」と、問いとして挙げられています。

AI情報にあふれる世の中でいいのか
・楽しい仕事もすべて自動化すべきか
「非人間的な精神」を開発すべきか
・文明のコントロールを失うリスクを冒すか

AI情報にあふれる世の中でいいのか

人間が頑張って作る文章ではなくて、AIが過去の文章を元に生成し、なんとなくコンテンツっぽいものを作るのは簡単です。

「そんな世の中ででいいのか?」と公開書簡では問いかけています。

楽しい仕事もすべて自動化すべきか

社会が、仕事は自動化すべきという考え方になっていくと、これまでやっていた仕事の大半は自動化できるかもしれないです。

「けれども、それは人生にとって幸せなのでしょうか?AIができる仕事はAIにまかせて自動化していき、それを突き詰めた結果、いろんな仕事がなくなっていく状況でも本当にいいのか?」

と、公開書簡では問いかけています。

「非人間的な精神」を開発すべきか

「非人間的な精神」という言葉は、おそらくAIのことでしょう。

「AIは、人間ではないのに頭が良くて、賢くいろんな事が判断できます。

それによって、今の人間を駆逐してしまうような思考するツールであったり、プロセスを作ってしまっても本当にいいのか?」

と、公開書簡では問いかけています。

文明のコントロールを失うリスクを冒すか

「人間を駆逐してしまうようなツールなどが出来てしまった場合、文明のコントロールを失うリスクを犯してしまっても、本当にいいのか?」

と、そして、

「しっかりと今、立ち止まって考えなくちゃいけないシーンにあるんじゃない?」

と、いうことが考えるべきポイントとして具体的に挙げられていました。

公開書簡での提言

そこで、公開書簡では提言しています。

したがって、私たちはすべてのAIラボに対し、GPT-4よりも強力なAIシステムの訓練を少なくとも6か月間、直ちに一時停止するよう呼びかけます。この一時停止は公開され、検証可能であり、すべての主要なアクターを含める必要があります。そのような一時停止が迅速に制定できない場合、政府は介入してモラトリアムを開始する必要があります。

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

FLI(Future Of Life Institure)の公開書簡

だから、「一旦6か月間停止しよう。」と、言っています。

6ヶ月の停止で行うべきこと

はてな丸

停止した6ヶ月間は何をしたらいいの?

では、停止した6ヶ月間は何をしたらいいのでしょう。

やるべきことは2つ書いてありました。

・AI開発は外部専門家も入れてた監査体制を作るべき。
・AIの健全な企業経営を行うための管理体制も急いで作る必要がある

AI開発は、外部専門家も入れた体制を作るべき

1つめのやるべきこと。

まず、AIの設計や開発の共有状況、共有の体制っていうのをちゃんと作るべきであると提言しています。

独立した外部専門家によって厳密に監査および監督される、高度なAI設計と開発のための一連の共有安全プロトコルを共同で開発および実装する必要があります

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts.

FLI(Future Of Life Institure)の公開書簡
ちゃちゃ丸

めちゃわかりにくい!

「独立した外部専門家によって、監査勧告するAI設計開発の共有・安全、しっかりみんなで開発して、実行すべきではないか」と。

「アシロマの原則にあるように、過度の競争に陥らないよう、AI開発者は連携し協力して、状況を把握しながらやっていくべきである」ということですね。

ねこまんま

もうちょっと、具体的に解説します。

AIビジネスになってしまうと、それぞれ独立した会社が自分たちの技能を獲得して、それで優位性を取ってビジネス展開しようとしてしまいます。

ちゃちゃ

「今は、そんな感じになってるよね。」

と、いうことをこの宣言を書いた人や、そしてここに署名しているイーロンマスクでありスティーブオザーニックでありいろんな方々が懸念しています。

「だから、半年間止めて、こういった体制をまず作るべきじゃないか。
そして、勝手にそれぞれが独立してやるんじゃなくて、共通して何をやっているか分かるような体制を、しかも自分たちだけではなくて外部専門家入れて、しっかり作りなさいよ
。」
と、いうことを言っています。

要は、独占するんじゃねーよ、と言いたいんですね。

ねこまんま

AIの管理体制も急いで作る必要がある

2つめのやるべきこと。

並行して、AI開発者は政策立案者と協力して、強固なAIガバナンスシステムの開発を劇的に加速する必要があります。

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. 

FLI(Future Of Life Institure)の公開書簡

「AIガバナンスのシステムをしっかり作りなさい。これと並行して、AIの開発者は政策立案者と協力して強固なAIガバナンスシステムを開発すべきです。」
と、いうことを提言しています。

では、AIガバナンスって具体的にはどういうことでしょうか。

それについて、例が挙げられていました。

AIガバナンスの要素

・AIに特化した規制当局
・AIシステムの監視・追跡
本物と合成を区別するための証明システム
・堅牢な監査と認証エコシステム
・AIによる被害に対する責任
・AIの安全技術研究への公的資金
・AIによる経済的・政治的混乱への対応リソース・制度

「AIシステムをちゃんと監視したり追跡できる状況を作りましょう。」

フェイクの画像しかり、文章もしかり、いろんなものが乱立するわけなので、「本物と合成されたものを区別するための電子証明システムが必要なんじゃないの?」と

監査とか臨床システムは当然大事だね。」と

「AIによって被害があった場合、責任の明確にしよう。」

安全技術への投資。」

そして、「AIが出たことによって経済的政治的特に民主主義なんかが混乱するかも。」って書いてあって、「そういうことが起こり得た場合の、対応するリソースであったり制度。」

「このようなものをちゃんと考えて作っていくため、その猶予期間としてこの6ヶ月間という停止が必要なんじゃないか。」
ということが挙げられていました。

ちゃちゃ

ごもっともです。

なるほどなーと思える内容。

ねこまんま

公開書簡のむすび

最後の結びはこうです。

正しく準備を行い、人類とAIの豊かな未来(AIサマー)を楽しもう

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an “AI summer” in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5]  We can do so here. Let’s enjoy a long AI summer, not rush unprepared into a fall.

FLI(Future Of Life Institure)の公開書簡

「このように、正しく準備を行っていけば人類はAIとの豊かな未来、AIサマーを楽しむことができるんだ。楽しもうね。

ということが、結びに書いてあります。

ちゃちゃ丸

AIサマーって何だ?

謎だけど、そう言ってるんだからしょうがない。

ねこまんま

「AIをより正しく作っていくためには、アシロマの原則にあるような様々な考え方や仕組み・基盤が必要で、今はこれが全くないよね。」

「これがないまま、過度な競争に陥ると相当やばいから、ちゃんとそれを作る猶予を作って作った上でもう一回適切な形で作っていきましょう。」

と、いうことが今回の書簡のメッセージ要約です。

ちゃちゃ丸

そういう風にみてると、確かにそうだよね。

もちろん、いろんなポジショントークとか、自分たちでビジネスをやるための一時ストップとか、いろんな意見がうごめいているような状況であると思います。

けれども、この結びで言ってるは、全体の流れとしてはわかりますよね。

確かに、アシロマの原則があって、原則の内容を満たしていない現状があります。

だから、一旦6か月間停止して、その間に共同体制やガバナンスを作っていきましょうというのは、納得感のある話です。

それを踏まえたうえで、、AIサマーを楽しもうというのは非常に合理的で「なるほどね。」と思わせる内容になっています。

ねこまんまの考察と学び

イーロン・マスクらが署名した公開書簡のオリジナルを調べるにあたって、学んだ事と考察を最後に述べます。

考察と学び
1.テクノロジーと倫理のバランス
2.署名した公開書簡の疑問点

1.テクノロジーと倫理のバランス

たしかに倫理はすごい大事だなと思いました。

「AIすごいね。」「ChatGPTすごいね。」という、攻める側、ポジティブ寄りの発信ばかりが多いのは事実です。

それと同時に、「行き過ぎると非常にまずいことになる。」という思いを、個人としてある程度持たなければいけないかなと思います。

2.署名した公開書簡の疑問点

かといって、ビジネスにおいても、個人においても、AIを使うことはたぶんやめないと思いますし、止められないだろうと思います。

そんな倫理とか綺麗ごと言っても、無駄なような気もします。

なぜなら、Open AI が、新しくアプリケーション開発に使うためのAPI使用料を格安で提供しているからです。

「もはや、AI開発者自身も理解もできず、予測もできない制御不能な競争に陥ってるんじゃないの」
(FLI(Future Of Life Institure)の公開書簡)

これは間違いで、むしろ、Open AI は多くの人々に使ってもらい、開発してもらうことを前提として、API使用料を格安で提供している可能性があります。

その点を踏まえて、今後もOpen AI 側の新しい意見に注目していきたいと思います。

以上です。

ねこまんま

次回、絶対書書くぞ!

期待しないで待ってるよ。

ちゃちゃ丸

-AI, WEB