音楽:魔王魂
この人物モデルのAPIサンプルはこちらから
↓
https://web-xr.studio/jp/doc/api_examples
- AIによるフェイシャルアニメーション制御 -
人工知能(英: artificial intelligence、AI〔エーアイ〕)とは、1950年台からその考え方がある。
1968年に公開された『2001年宇宙の旅』(原題:2001: A Space Odyssey)は、SFミステリーとも分類されるが人工知能による殺人犯罪を描いている。コンピュータHALは、なぜ乗組員たちを殺害しなくてはならないほどの暴走をしたのか?非公開ミッションと乗組員たちの命令に矛盾があったため思考暴走したのでは?はたして暴走だったのか?真相は?というところがミステリーというわけだが、そもそも映画公開当時考えられていた人工知能というものには、感情がない。そして思考というものすらないと考えられていた。
余談であるが『2001年宇宙の旅』は壮大なテーマをもつ希代の作品である。人工知能の暴走ともとれるエピソードは作品内で盛り上がる部分であり、あの難解な物語のわかりやすい部分だとさえいえる。しかし、あくまで作品内の1エピソードであり、SFミステリーと分類されることには違和感を覚える。
当時の人工知能は、現在では人工無能(英: artificial non-intelligence)とも揶揄される。
ユーザーである人間のインプットに対し、あたかも思考というプロセスを経た上で回答することが人工知能に求められるわけだが、当時の考え方では「こんにちは」というインプットに対し「こんにちは、ご機嫌いかがですか?」という回答を一対で用意しておく。一見単純であるが、学習辞書が膨大になればあらゆるインプットに対しアウトプットできる。技術が発展すれば、それはもう人間のように振る舞うであろうと考えられていた。
インプットに対し事前に用意されたデータをアウトプットとして一対一で返すという考え方は、コンピュータは決して間違いをしないということである。
インプットに対して一対するデータがあれば、それを返す。そこに間違いも何もない。
インプットへの一対するデータがなければ、回答をしない。いやできない。それだけなのだから、間違いが起こるはずがない。
しかし、現代のAIは間違いを犯す。このファジー(曖昧さ)が当時考えられていたAIと大きく違う。
思考がないとは、人工知能という言葉そのものの定義すら危うくなる解釈だが、1980年に哲学者のジョン・サールが論文の中で「中国語の部屋」という思考実験を発表した。
ある小部屋の中に、アルファベットしか理解できない人を閉じこめておく(例えば英国人)。この小部屋には外部と紙きれのやりとりをするための小さい穴がひとつ空いており、この穴を通して英国人に1枚の紙きれが差し入れられる。そこには彼が見たこともない文字が並んでいる。これは漢字の並びなのだが、英国人の彼にしてみれば、それは「★△◎∇☆□」といった記号の羅列にしか見えない。 彼の仕事はこの記号の列に対して、新たな記号を書き加えてから、紙きれを外に返すことである。どういう記号の列に、どういう記号を付け加えればいいのか、それは部屋の中にある1冊のマニュアルの中に全て書かれている。例えば"「★△◎∇☆□」と書かれた紙片には「■@◎∇」と書き加えてから外に出せ"などと書かれている。
彼はこの作業をただひたすら繰り返す。外から記号の羅列された紙きれを受け取り(実は部屋の外ではこの紙きれを"質問"と呼んでいる)、それに新たな記号を付け加えて外に返す(こちらの方は"回答"と呼ばれている)。すると、部屋の外にいる人間は「この小部屋の中には中国語を理解している人がいる」と考える。しかしながら、小部屋の中には英国人がいるだけである。彼は全く漢字が読めず、作業の意味を全く理解しないまま、ただマニュアルどおりの作業を繰り返しているだけである。それでも部屋の外部から見ると、中国語による対話が成立している。
はたして、この状況で中の英国人はインプットに対する思考をしているといえるのだろうかということだ。
過去のAIは、蓄積された学習データの中かからインプットに対し一つの回答しか用意されていない。しかも、データ収集(学習方法)も限られていた。
現代のAIでは、インターネットを介し膨大な学習が短時間で行えるうえ、回答を割り出す手段をもつ。
膨大な学習データを類似性からカテゴリグループに分け、過去のインプットで正解とされた回答に近いものを選別して回答する。
この選別には、pythonお得意の微分積分といった高度数学が用いられ、適切だと統計上分類できるものを選別する。だから、過去の人工知能のように間違いを犯さないではなく。いっぱい間違いを犯す。そして、その間違いを利用者が指摘することにより追加の学習が行われ、回答精度が上がる。なんだ、やっぱりすごい。
すごいのだが、処理としては統計の解析と学習を繰り返しているだけなのだ。
なので、現代のAIでも「中国語の部屋」という思考実験は成立してしまう。
英国人ではなく、コンピュータなわけだが。作業の意味を全く理解しないまま、ただマニュアルどおりの作業を繰り返しているだけなのだから、はたしてコンピュータはインプットに対する思考をしているといえるのだろうかということだ。
そもそも、過去にしろ現代にしろ、AIに本当の思考が求められているわけではない。
あたかも思考や感情というプロセスを経た上で回答することが求められている。
本当の思考や感情である必要はない。「あたかも」だ。
さて、長い前振りをしてしまった。そう、これまで書いてきた話はすべて前振りである。
本コンテンツ「On the Back alley」のフェイシャルアニメーション(顔の表情)は、AIによる制御が行われている。
訪問者の本コンテンツへのアクセスというインプット行為により毎回異なる反応を示す。
うつむいたり、見上げたり、笑顔を浮かべたり、キョロキョロあたりを見回したりといった振る舞い。無段階のアニメーションであり、さらにアニメーション同士のブレンディング(混合度合い)により無限のパターンが発生。さらに、毎秒、次の振る舞いを発生させるタイミングすらコンピュータが決めている。
そう、あたかも思考や感情をもって振る舞うのである。
もっとも、学習データから統計解析を行なって振る舞いを決定しているわけではない。
そもそも学習データなどいうものもない。学習データ収集や微分積分クリリンの分とかいう高度数学を用いた統計解析は、AIを実現するための手段である。
手段の結果、あたかも感情や思考をもつかのように振る舞うAIが実現する。
本コンテンツでは、この手段というアプローチが異なり、乱数というものを使って振る舞いを決定している。プログラミングをかじったことのある方ならお分かりであろうが、これはぜんぜんすごくない。
すごくないのだが、あたかも思考や感情をもったかのような振る舞いで動作しているのだから人工知能(英: artificial intelligence、AI〔エーアイ〕)である。