粒沢らぼ。

当ブログでは現役生命科学系の研究者が、気になった論文を紹介したり、考えていることを共有したりしています。可能な限り意識を”低く”がモットー。たまに経済ネタとかも。
書いてる人:粒沢ツナ彦。本業は某バイオベンチャーで研究者をやっています。本名ではないです。
博士号(生命科学系)。時々演劇の脚本家、コント作家、YouTube動画編集者。アンチ竹中エバンジェリスト、ニワカ竹中ヘイゾロジスト。
Twitterアカウント:@TsubusawaBio←お仕事などの依頼もお気軽にこちらへ。

タグ:AI

22107161_s

Natureに掲載されていた
「学者が音頭をとって公開型の自然言語処理モデルを構築すべき」というエッセイを読んで、「たしかに、学術機関が完全無料で自然言語処理のプログラムとかモデルとか公開してくれたらありがたいよな。」と思った。


Arthur Spirling / Nature “Why open-source generative AI models are an ethical way forward for science”


今の膨大なデータを学習して便利だと言われている自然言語処理のAIは、私企業が作っているものだから、何をどういうふうに学習したのかよくわかっていない。

それに、私企業の都合次第で、いつのまにかバージョンが変わってしまったり公開停止されたりしてしまう可能性がある。


そうなると、学術的に自然言語処理を研究しようという行為は大きく阻害される可能性がある。

ある日突然検証も利用もできなくなってしまうものに対して使い方や性能を研究して論文を書く人は、それほど多くはないだろう。

企業がこっそり裏で学習モデルを変更したりしたら、せっかく研究しても意味がなくなってしまうからな。


そういうわけで、エッセイの著者Spirling氏(ニューヨーク大教授、政治とデータ科学が専門)によれば、科学コミュニティがオープンソースの自然言語処理AIを開発して誰にでも無料で公開し利用できるようにするのが、最も倫理的で進むべき道なのだという。

アップデートがあれば前のバージョンも残しつつ新しいバージョンを公開する。

AIがどんなデータを学習したのかもすべてわかるようにする。

ちょっとコードを書き換えたらどうなるか試すことも可能にする。

別に学術の世界では珍しいことでもなんでもなくて、例えば Python やRとかも 学術機関が無料で公開しているよね。

それとおんなじじゃん、というわけだ。


そりゃまあたしかにそうなんだよな。

営利企業が独占的に自然言語処理AIを使いたいのは気持ちはわかるけども、それで得するのは企業の社員とか株主くらいなものだ。

OpenAI社(民間企業)にお金を貢いだところで、とくに日本人である我々が得することはなにもないよね。

最初は「安くて便利だね」みたいな顔をして売っておいて、みんなが慣れた頃合いになったら「サブスク値上げするね(⁠^⁠^⁠)」とやってくるに決まっているのよね。


自然言語処理AIが便利であろうとそうでなかろうと、コアの部分は人類全体の学術的な共有財産として研究・発展させていくという方向性は、支持しておいたほうが良さそうだね。

理想的には、複数の国の政府がお金を出し合って、自然言語処理の研究・管理組織を作るのかな。

個人的にはぜひその方向で進めてくれ、という気持ちになりましたね。


040920
AIやテック系の大物たちの一部が、AI開発を一時停止すべきだ、と言い出したらしい。

何事ぞ?と思ったけど。





DeepLによる記事日本語訳を読んでて、個人的にやべえなと思ったのはここ。


「私たちは自問自答しなければならない: 私たちは、機械が私たちの情報チャネルをプロパガンダや真実でないもので溢れさせるべきでしょうか?充実した仕事も含めて、すべての仕事を自動化すべきなのか?私たちは、やがて私たちよりも数が多く、賢く、時代遅れで、私たちに取って代わるかもしれない非人間的な精神を開発すべきなのか?私たちは、文明のコントロールを失うリスクを冒すべきなのでしょうか?そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。」

(強調は粒沢による)


AIの開発者たち、一見「世の中の人の仕事を奪わないため」とかキレイゴト抜かしてるけど、彼らがそんなことに今更興味あるはずがない

(なぜって、人の仕事を奪うというのは技術開発系の商売の本質だからね。
そんなこと気にしてたら技術開発なんてできません。

AIが多くの人から仕事を奪ってしまうのが本当なら、余計な規制ができる前になるべく早くたくさん稼ごうと思うはず。

というか僕ならそう思います。)


そうではなくて。

AIの発達が、AI開発を殺すかもしれない可能性に気づいたのだと思う。


ChatGPTやmidjourneyその他の人工知能が魔法のように正解っぽいことを生み出すからみんなうっかり忘れがちだけど、あくまで機械学習なんだよね。学習。

だから、学習させる内容がめちゃくちゃ大事だ。


AIがそれほど使われていないうちは、世の中の論文や書籍、ウェブサイトなどはほぼ間違いなく人間の頭脳によって生み出されたものと仮定しても良かった。

しかし、便利な人工知能が登場して皆がそれを使うようになってしまうと、世の中が「人工知能によって生成された情報」で溢れかえってしまう

これは誰よりも人工知能の開発者たちにとって大変まずい事態なのだ。

本音はここだと思う。


あくまで人工知能は人間を真似するからこそ意味がある。

人工知能が人工知能を手本にしだしたら、なんのためにやっているのかわからなくなる。

鏡に写った像に写った像に写った像に写った像…の『合わせ鏡』のように、どこまで行っても真実にたどり着かない虚無になってしまう危険性があるのだ。

人工知能の発達が人工知能によって阻害され、場合によっては停滞して進歩しなくなるかもしれないのである。


だからこそ、人工知能の開発者や企業経営者たちは一旦開発を停止してルール作りすることを求めているのだ。

最低限、「人間が作った情報と人工知能が作った情報の区別がつくこと」や「世の中にAI生成の情報を無闇に溢れさせすぎない」を取り決めることになると思う。


AIで仕事を奪われるとか社会が変わってしまうことを気にしているというのはあくまでポーズで、自分達AI開発側がまさに困ったことになるのに気づいて対策を講じているのだと、僕は見ていますね。





22152381

Nature誌に乗っていた、AIについての記事を読んだ。

AIのモデル(パラメータ数、学習する要素の数)がどんどんでっかくなるし、性能も確かに上がっているけれど、ただでかい方がいいのか??みたいな記事。


Anil Ananthaswamy / Nature “IN AI, IS BIGGER ALWAYS BETTER?”


AIの開発者たちは、自発的に思考ができることを目指してるらしい。

要は自分で考えて問題に立ち向かったりできるドラえもんみたいな感じですかね。

高い目標があるのは良いことだ。


ただ、今行われているような学習をいくら組み合わせてもそこには至らないのでは、という説もあるらしい。

たしかに、チャットGPTがいくらすごくても、過去に作られた文章から類推してるだけだもんね。

自分で考えているわけではないから、一見それっぽい文章は出力するけれど、平気で自己矛盾することや間違ったことも言ってしまう。


もちろん、あらかじめ多岐にわたる内容を学習させておけば、世の中の多くの問題に対処できるようになる。

しかしそれは自発的に考えているのではないし、新しい問題に対しては、人間が自発的に考えたことと同じ精度にはならないらしい。(例えば計算問題とかはどうしても苦手らしい)


AIは学習する要素の数を増やすと飛躍的に性能が向上するという話もあったけど。

確かにある程度まではその通りなんだけど、あるところを境に、投入した労力に対してそこまで性能は向上しなくなるんだそうだ。

たくさんのことを教え込むのには労力や計算のリソースが大量に必要で、人類が提供できる量には限度がある。

莫大なエネルギーと予算と時間を費やさないと、高い知能のAIは作れないけれど、そこまでやって採算が合うのか?という問題もある。

今はAIが日進月歩しているけれど、そのうち改良速度は頭打ちになるのかもしれないね。


それにくらべたら人間の脳は、それと比べれば随分と少ないエネルギーで活動し、類推したり問題を解けるわけだから、すごいよね。

まあ成長して使い物になるには10年単位で掛かりますけども。

光合成とかでも思うけど、生命現象って偉大だなー。

なかなか人間の作った機械や化学反応では再現できないことが多いっすね。


2353352

海外では、人間ではない存在が特許取得してもいいかというのが法的に問題になっているらしい。

先日の学術雑誌Natureで記事になっていた。


Nature “Artificial intelligence is breaking patent law”


ここでいう人間以外の存在とは、すなわち
人工知能(AI) である。

将棋などの人工知能 AI でわかるように、すでに特定の分野においては、AI の持っている知能は人間を凌駕してしまっている。

人間ならば一生かかっても読み切れないような膨大なデータや文献や記録を、AI は(人間に比べれば)容易く学習して『理解』できてしまうからだ。


じゃあ、「自動的に発明をする AI」のようなものがあったとして、AIが新たな発明の発明者として法的に登録できるのか?という点が問題になっているらしい。

2018年にはアメリカの AI 企業が、”DABUS”というAI が開発した発明品(ヘンな形の食品容器)を、DABUS自体が発明したものとして米国、イギリス、EU、韓国など世界各国で特許申請したらしい。

「現行の法律では、発明者は人間でなければならないと解釈される」として、ほぼ却下される見込みらしい。

だが、今後の議論次第では制度が変わって「AIが発明者」となるケースも認められるようになるかもしれないそうである。


もし自動的に発明を行うAIによる申請が認められた場合には、そのようなAIが生み出す利益は大きいため、すぐれたAIを開発するインセンティブになる(らしい)。

いっぽう、懸念としては、AIが自動的に特許申請することで特許審査の仕事を圧迫したりする可能性がある。

また、AIの開発者に特許権を認めることで、(おそらくAI企業による実質的な寡占状態になり、)発明品の価格が高くなって、せっかくの発明が途上国などで利用できなくなる可能性も指摘されている。


過去の膨大なデータを学習したAIは、人間には思いつかなかった発想や組み合わせで新しい発明をするのにはある意味向いているといえる。

だからこそ、AIが当たり前の時代に向けて、新たな法整備に向けた議論が必要である、とする筆者の意見はうなずける。


ただ、特許の申請者は「あくまでAIを操作して発明や特許申請を行なわせた人」でもいい気もするな。
そこを「AIが主体的に発明した」ということにする必要性は、本当にあるのかな?
正直、上記の記事からは粒沢はあんまりよくわからんかったな。


039397

IBM
が開発したという世界初の“ディベートができる人工知能”、Project Debaterの話の続き。(前回参照)

自動で勝手にスピーチを考えて喋り、相手の主張にも反論できるという。 

だが、人間と対決させると、ディベート勝負ではさすがに人工知能が負けてしまう場合もあるらしい。

 

人工知能が書いたスピーチを人間に評価させると、「これはイマイチだな」と評価されてしまう場合もある。

イマイチになってしまう原因は、単純にデータベースの新聞記事から良い論拠を探し出せなかった場合が多い、という。

人工知能は、インプットされたデータベースにないことは主張できない

 

また、文脈を読み違えて反論のポイントを間違えてしまい、効果的に反論できていない場合もあるらしい。

(たとえば、人間の人工授精を推進すべきかという議題で家畜の人工授精の話を始めてしまった例がある。

また、スポーツ選手を助成すべきという主張に反論しようとして、スポーツをすることの選手個人の健康への悪影響の話を始めてしまった例などもあるという。)

 

こうした難しさは、文章の暗黙の文脈を理解するという意味では、人間の方がまだまだ高いことを指し示すものだ。

だが、これらの欠点は、著者らによれば自分たちがAIにとっての得意分野を出て、難しいことに挑戦しようとしていることの証だという。

 

著者らによれば、まず、既存のゲーム系人工知能(チェスとか将棋とか)の場合は、AIにとっての「コンフォートゾーン」であり、そもそもかなり人工知能にとって有利なフィールドだ。

ルールは明快で勝ち負けがはっきりつくし、打てる「手」の数は有限だし、学習に使える強い人間の手の記録(棋譜)がたくさんある。

また、人間に理解できない論理を元に手を指しても、最終的に勝てばそれで良い。

 

一方で、ディベートの場合は勝ち負けの基準は曖昧だし、ディベートのスピーチの記録も全文が残されていることはほとんどない。

しかも、ディベートでは人間の審査員を納得させなければいけないので、「普通の人間に理解できない論理」を使うことはできない

だが、真に人間の決断をサポートして役に立ってくれるのは、むしろそうした人工知能の方ではないか、というわけだ。

 

なるほどたしかにその通りであり、面白いところをついてるなあと思う。

 

たしかにこのような人工知能が発展すれば、単に電気をつけたり消したりとかではなく、本気で人間の話し相手、相談相手になってくれる人工知能ができるかもしれない。

そうなれば、技術的にもビジネス的にも大きな意義があることは明らかだ。

 

IBMのようなコンピュータの大企業が有能な専門家を抱えてこうした人工知能の開発に取り組むのは、実に合理的ですな。

めっちゃ金になりそう。

これからは「コンピュータサイエンスを収めた世界の精鋭たちが取り組むのはコレや!」みたいな方向になっていくのかもですね。

このページのトップヘ