過去の投稿でテッド・チャン「あなたの人生の物語(Story of Your Life、1999年)」に登場する「未来に起こる出来事の可能性が全て記述されている異星人の言語」について、コンピューター言語による「実際に発生し得る行動と発生条件」についての記述と(多種多様な特定の入力に対する特定の個人らしい反応を実現する)量子ビット集合で実現可能ではないかと夢想しました。
*要するに「個性」を「特定の量子ビット集合体」にカプセル化したもの。その概念自体は河原礫「ソードアート・オンライン(2001年〜)」にもフラクトライト(Fluct Light)なる用語で登場している。「量子ビットの集合体」なので複製不可能かつ「観測」成立の都度内容が変貌していき、最終的には「量子論的揺らぎ」が完全に消失する形で寿命が尽きるイメージ。一方「あなたの人生の物語」に登場するヘプタポッド星人は自らの身体性に関わる内容は原則として全て口語世界に追い出し、文語においてはこの「量子ビットの集合体の量子論的揺らぎ」についてのみ記述する。
発想の元ネタの制約からここでは「意識」がある意味「特定のTPOにおいて特定の個体に特定の行動を選択させる乱数表の一種」と単純化されて規定されています。一言で言うと「空気を読んで出目を調整する賽子」。
*性質二元論(Property Dualism)というより「精神側からの働き掛けが元来身体が備える潜在能力、さらにはそれを超えたオーバースペックを引き出し得る」と考える「超越主義(transcendentalism)」寄りの考え方。当然科学的根拠はない。創作作品の世界においてはこれを肯定すると挑戦の質が問われる熱血性、否定すると退廃的な悲劇性を帯びる。
性質二元論(Property Dualism)
「特性二元論」「属性二元論」などとも訳される。心身問題に関する形而上学的な立場のひとつで、この世界に存在する実体は一種類だが、それは心的な性質と物理的な性質という二つの性質を持っている、という考え。
同じ二元論に分類される実体二元論が、物理的実体とは別に、魂や霊魂といった心的実体を置くのに対し、性質二元論は一種類の実体だけを置く。
そして、二つの異なる性質に関して、一方を他方に還元することができない、一方から他方が創発することができない、と考える。この点で物理主義や観念論といった一元論と立場を分かつ。
現代の心の哲学の分野で議論される二元論は、実体二元論でなく、基本的にこの性質二元論と呼ばれるタイプの二元論である。二つの性質として、物理的なものと意識の主観的な側面(現象意識やクオリアなどと呼ばれる)の二つを考えることが一般的である。性質二元論に分類される立場の代表的な例に、デイヴィッド・チャーマーズの唱える自然主義的二元論がある。
それでは実際の科学における「意識」の定義は現在どうなっているのでしょう?
科学の最重要未解決問題『意識はいつ生まれるのか――脳の謎に挑む統合情報理論』https://t.co/U4UP4dYgLY 。。
— 宮島 (@fudoumyousan) 2017年9月13日
ネットワーク内部の情報の統合を定量化
— 小鳥遊りょう(jagurimath) (@jaguring1) 2017年9月6日
-客観的な意識レベルの指標に向けてーhttps://t.co/19bIjDTlNW
『意識の統合情報理論には、「統合情報量(脳内で統合される情報の量)」が意識レベルに対応しているという仮説があります。』
統合情報理論で示している「意識」は人間が「意識」として感じるものではなく、意識が最低限備えている性質でしかないですからね。
— 大場紀章(エネルギーアナリスト) (@nuribaon) 2017年9月6日
大量の情報が統合されているシステムや組織には、意識(自我)が芽生えている。
— 496 (@RBx1OKfQjcxzgBP) 2017年9月3日
虫にも、家畜にも、猿にも、ボノボにも。
”知能の低い動物は意識が無い”と勘違いしている人もいるが、今誤解を正してほしい。
知性の有無=意識の有無ではない。
統合情報理論で検索してみてくれ
統合情報理論も一種の性質二元論ではないか?とか言われてた気がする
— アオミドリ (@alfred_2013) 2017年9月15日
要は科学的に理論化された性質二元論よね>統合情報理論
— アオミドリ (@alfred_2013) 2017年9月15日
シンギュラリティネタって調べれば調べるほどニューエイジムーブメントと類似したムーブメントに見えるのよね>ジョブズもニューエイジ系の系譜の人だったはずだし、シンギュラリティを唱えるシリコンバレーの偉い人がニューエイジ信者といえのはあるのかも
— アオミドリ (@alfred_2013) 2017年9月15日
とりあえず「思考すると脳が活発化するが、その際にどう脳が使われているかについては一切分からない」「脳の活発化自体が意識活動と表裏一帯の関係にあるのなら、意識を備えているのは人間だけとは限らず、また情報処理を遂行するあらゆる機器がそれを備え得る」といったレベル。まぁ出発点としては、まずこんな感じでしょう。
“人工知能が「意識を持てるか」という超難問に答える(金井 良太) | 現代ビジネス | 講談社(1/7)” https://t.co/T8sZoQyWGB
— 渡辺遼遠 (@liaoyuanw) 2017年9月14日
意識は段階的なもの
金井:私自身は神経科学の研究者として、意識が脳からどのように生まれてくるのかを研究してきました。意識と相関する脳活動というのは確かにたくさん見つかってくるのですが、メカニズムとしての理解にはまだたどり着いていないのが現状です。そこで私自身も意識の問題に「どうやったら作ることができるのか?」という観点からの研究に今はシフトしています。このモチベーションはすごく理解できます。
リプソン教授:意識についてのよくある誤解は、それが「ある」か「ない」か、常に白黒はっきりしているというものです。自己意識(セルフアウェアネス)についてもそう。イエスかノーかの二者択一で考えるだけでは、進展は望めません。
金井:つまり、意識は段階的なものだと考えようということでしょうか。
リプソン教授:はい、連続的なものだと思います。アメーバのように全く自己意識を持たないようなものから、完全に自己意識を持った人間まで、意識にも幅があります。そもそも、世界に存在するすべてのものの中で、人間が最上級の自己意識を持っているとはかぎりません。さらにそれ以上の意識もありえるでしょう。だから、何かロボットなどに意識があるのかと質問するのは間違っていて、人間レベルの自己意識があるのかなどともっと適確な質問をすべきです。そう聞かれれば「まだ人間レベルの意識には達していない」と答えることができます。そのレベルにはまだ現代の技術は到達していません。
自己意識とはなにか?
金井:リプソン教授のロボットでは、自分の身体の構造のモデルを持っています。それは、すでに自己意識と呼べるものなのでしょうか。あるいは、このような身体といった具体的なものではなく、もっと抽象的な概念としての自己意識のようなものも作れるのでしょうか。
リプソン教授:まさにその通りです。それは間違いありません。自己意識(Self-Awareness)と意識(Consciousness)をここでは同じ意味だと捉えていますが、その自己意識のプラクティカルな定義上は、それがすでにロボットにあるといえるのではないでしょうか。
私の研究室で使っている意識のプラクティカルな定義は「自分のシミュレーションをする能力を持っていること」です。
これは、「メンタルタイムトラベル」と呼ばれる哲学的な概念に相当するもので、システム自身がこれまでに経験したことのない新しい状況にいることを想像する能力です。あるいは、過去の経験を、今まさに追体験するようなことです。
金井:これは驚きです。
リプソン教授:自己意識とは基本的にこういうことです。そして、現在を離れて、どこまで未来や過去に頭の中で旅をすることができるかが、どのレベルの自己意識を持っているかの度合いに対応します。
メンタルタイムトラベルには、自分自身についてのシミュレーションができなければいけません。これが、プラクティカルな工学的な意味での自己意識です。自分自身のシミュレーションをする能力を持つことで、未来の計画を立て、シミュレーションを使って過去の経験から学習する。意識を持つことで、そういったことができるようになるのです。
金井:このような意識についてアイデアは工学ではすでにあったのでしょうか。それともご自身で発案された仮説なのでしょうか。
リプソン教授:ここでの自己についてのシミュレーションという考え方が自己意識の定義として使われてきたかは定かではないです。メンタルタイムトラベルは、意識や自己意識について記述するときに使われてきた概念です。
もしかしたら、自己シミュレーションというのは、このメンタルトラベルの概念をエンジニアとして具体的に翻訳し直したものと考えるべきかもしれません。
このように自分自身についてのシミュレーションという具体的な定義を与えることにより、哲学的な議論を避けて、意識を構築することに取り組むことができるようになります。
金井:これはまさに我々が人工意識のプロジェクトを日本で始めた動機と同じ発想です!ただ、リプソン教授の場合は、自己モデルを持ちメンタルシミュレーションをするロボットをすでに完成させていますね。
リプソン教授:確かにそうですが、しかし意識というのは「ある」か「ない」かの白黒はっきりしたものではないのです。
私たちが作った機械は、自分自身のシミュレーションをすることはできますが、そこでの自分自身のイメージは極めて初歩的なものです。そこで実装されているシミュレーションは自分自身の身体がどう動くのかという運動学(キネマティクス)のみです。
金井:確かにそうでした。
リプソン教授:自己のシミュレーションは、身体をどのように動かすかというモデルに限られた話ではありません。身体の運動には動的変化や様々な時間遅れもありますし、非常に多様な要素が絡み合っています。
身体の動きをシミュレーションできるようになったら、今度は、「自分自身の精神活動のシミュレーションをロボットはできるのか?」という問題がでてきます。
これはより高次なシミュレーションで、単なる運動ではなく思考プロセスのシミュレーションを実行するシステムを作れるのかという問題です。
まさに私が自分自身に考えているときは、「考えること」について考えることができます。そして、将来の特定の状況において自分自身がどのように感じるであろうかということに思いを巡らせることもできます。
例えば、宝くじに当たったらどんな感じがするのだろうとか、昔あのときはあんな風に決めてしまったのは、どういう気持ちだったからだろうかとか、こういった「思考についての思考」は自己シミュレーションの一種です。ただし、より高次なものに、シミュレーションの抽象度を上げていくことができます。
だから、意識には際限がないのだと思います。単に「ある」か「ない」かの二択ではなく、いくらでも高次になっていくのではないでしょうか。正直なところ、人間が最上級の意識を持っているとは考えていません。
金井:意識の研究者の間では、意識の機能が何であるのかということが議論になります。ここでは、意識を持つことでロボットが自分の未来について、実際に行動せずに「想像する」ことが意識の機能だと考えているようですね。
この機能があれば、まったく初めて体験する場面に出くわしてもある程度、想像力によって適切な行動ができますね。
リプソン教授:そのとおりです。これが進化においてどれだけ有利に働くかは明らかでしょう。しかし、このような機能にはコストもあります。つまり、自己のモデルやイメージを獲得するためには、非常に発達した脳や神経系が必要となります。
それによって得られる利点が、将来のシナリオを頭のなかでシミュレートし、実際にそれを経験しないでもそこから学び行動の計画を立てることができることです。エンジニアもこれと同じことをシミュレーターを使ってやっています。
飛行機を作るときには、実物を作るかわりに、シミュレーター上でデザインして機能を確認します。自分自身のシミュレーションができると、実際の身体を使っての試行錯誤の必要性を減らすことができるのです。
エンジニアならば誰もがよく知っていることですが、シミュレーターの価値は、複雑で高価なモノを作るときにとくに発揮されます。複雑な飛行機のような場合には、実機による試行錯誤で欠陥を見つけるのは難しく費用も高額になってしまいます。
バクテリアのような単純な生物が自己意識をもっていないのも偶然ではありません。そのために必要な生物的基盤が備わっていないのです。しかし、バクテリアの個体の生存期間や経験する環境の観点から、そのような機能はコストの方が大きくなってしまいます。
一方で、サルなどの霊長類では、個体の生存期間も数十年と長く、それぞれが成長し学習するのにコストがかかっているので、未来を予測し自己のシミュレーションをおこなう能力を持つほうが割に合っています。
AIとシミュレーションの断絶
金井:現代のAIのデザインには、このような自己シミュレーションの考え方はどれくらい取り入れられているのでしょうか。
リプソン教授:AIの研究者はシミュレーションを常に使っています。ロボットは最初にシミュレーターの中で学習してから、現実世界へと移行します。
ある意味では意外でもあるのですが、AIの研究者はAIに外の世界についてはたくさん学ばせるのですが、自己について学ばせることはあまり考えていません。
つまり、シミュレーションは技術者によってあらかじめ組み込まれており、その世界において機械学習のアルゴリズムは世界の認識能力を獲得します。しかし、AIをシミュレーターを作るためにはあまり使っていません。
この断絶には歴史的な理由があります。AIはこれまでコンピューターサイエンスの人が作ってきたため、物理的な実証実験をあまり重要視してこない傾向がありました。一方で、シミュレーション(自己シミュレーションを含む)は物理系を基礎としたエンジニアが作ってきたので、AIは使われずに発展してきました。
金井:しかし、最近では、ニューラルネットワークを使って生成モデルを学習させるような手法が非常にホットなテーマとなっています。生成モデルの学習は自己のモデルの学習やシミュレーションに使えるのではないでしょうか。
リプソン教授:もちろん生成モデルは利用可能です。意識を作るためには、現在外界をモデル化するために使われているAIの手法が役に立つのではないかと考えています。
これまで発展してきた学習機能を内側に向けることで、これまではエンジニアがプログラムを書いてきたような、自己シミュレーションを走らせる能力を獲得するようなAIを作ることができるでしょう。
金井:現在、汎用AIの開発に向けて世界的に研究が盛んになっていますが、ここでの自分自身を含んだ内的なシミュレーションは、汎用AI開発に貢献するでしょうか。
リプソン教授:不可欠です。高次の知性を創造しようとした場合、自己について学習できなければ、決定的に大事なものが欠けています。もちろん、異論もあるかもしれませんが、実際にテストしてみるべきでしょう。
コンピューターやロボットといったシステムの内側と外側の境界線を区切って、内側を技術者が前もってプログラムを書いておき、外側をAIに学習させることは困難です。この境界線を曖昧にして、機械自身に自分の内側を学習させる必要がでてくるでしょう。
さらに別の観点では、機械が自分自身のモデルを学習する能力だけではなく、他のエージェントの思考プロセスもモデル化する能力も考えられます。AIが外側の世界に適用されると、犬と猫をどうやって見分けるかという機能がありますが、他の生き物の頭の中をシミュレーションすることも考えられるのです。
これは心理学では「心の理論」と呼ばれているものです。
ロボットやAIはそれが見ているモノが何であるのか、世界がどうなっているのかを判別するだけではなく、自分以外のエージェントに何ができて何ができないのか、他のエージェントがどういう風に考えているのか、どういうシミュレーションをしているのかを理解する必要もあるのです。
主観的な感覚は生じるのか
金井:ここでの自己シミュレーションの話は、意識の機能的側面についての話ですが、そのようなロボットには主観的な感覚というのは生じているのでしょうか。
人間では赤を見たときの赤の感覚や痛みのもつズキズキとした独特の感覚があり、それは「クオリア」と呼ばれています。自分自身のモデルをもちシミュレーションをする能力を獲得したロボットには、そのような主観的なクオリアは生じているのでしょうか。
リプソン教授:すでに、ディープラーニングで物体認識をするときにはクオリアは生じているのではないか思います。ディープラーニングの低次のレイヤーのニューロンは、ネットワークの経験によらず同じようなものがいつも現れます。線分や円などの単純なパターンを認識するニューロンです。
一方で、高次のニューロンも、経験の内容によらず似たような結果になります。どのネットワークも犬や猫やバスといったカテゴリーを認識するようになります。つまり、一番低次と一番高次の部分はどんなネットワークでも同じようなものができあがります。
しかし、中間のレイヤーは全然違い、主観的です。犬や猫、線分や円などについては誰もが同意することができます。しかし、ネコの毛並みのフワフワな感じや動物の形の感じなど中間的なものについては感じ方が違うでしょう。これらは、高次でも低次の特徴でもありません。この中間レベルの感覚がクオリアなのだと思います。
金井:つまり、画像の模様(テクスチャ)とかそういったものがクオリアだと考えるということでしょうか。
リプソン教授:模様(テクスチャ)もそうですが、他には車のブランドがもつ固有の感じとかもクオリアです。こういった感覚はとても小さな視覚的な違いを手がかりとして、それを言葉で表すのは難しいといったものです。
チョコレートの味を言葉で表すのは難しいですし、赤ワインの味なんてものもそう。こういった質的な感覚は経験が生じたときに、自分の過去の経験を元に認識します。しかし、これを他人に伝えるのは難しいのです。
ニューラルネットも同じような過程を経ていることがわかります。ニューラルネットでも中間レベルにあるニューロンは、他の部分よりもそれぞれ特徴的で、別のネットワークに移植するのが難しいものを表現しています。
私の考えでは、こういったものが機械にとっての主観的感覚を成しているのではないかと思うわけです。
「AI自身に相応の形で(自らの操作対象たる身体に与えられた自由度の範囲で)自己シミュレーションを行わせ最適化を図る」 有効性は十分理解可能ですし、実際成果も上っている様です。問題は「AIの自己シミュレーションにそれ以上の自由度を与える事」が何をもたらすか。さらには、そうして得られた経験が「(クオリアの様な)主観的な感覚」を生じ得るのか。そして生じるなら生じるでどう有効活用するのか。
*後者については著者自身も「もちろん、異論もあるかもしれませんが、実際にテストしてみるべきでしょう」とあらかじめ断わりを入れている。ただ確かに「将棋や囲碁のAIが、次に指すべき手の一覧を出力する(それが1つなら「実際に指した」事にも出来る)」や「画像認識ソフトが、与えられた画像が猫画像である確率を割り出す(判断基準が与えられれば「それが猫画像かそうでないか」仕分け可能)」といったモジュールなら既に発表済みなので、将来本当に実用的な擬似デバイスが登場してくる可能性までは否定出来ない。
「ディープラーニングに既に原始的なクオリアは生じている」って随分ラディカルな主張に思えるのですが、この教授はシンギュラリタリアンなんでしょうか?
— アオミドリ (@alfred_2013) 2017年9月15日
欧米の記事だと単に脳内の動きの一部をシミュレーションしたりディープラーニングに反映しても意識は生じるはずないと説いてましたけど
リプライ見落していました。。クオリアは定義上、主観的なものなのでこの主張はラディカルというか意味不明です。。
— 渡辺遼遠 (@liaoyuanw) 2017年9月15日
なるほど、確かにそうなりますよね
— アオミドリ (@alfred_2013) 2017年9月15日
クリストフ・コッホやチャーマーズみたいにサーモスタッドにも意識の種は宿る(意識は物質の根本的な性質)的な性質二元論を唱えてるわけでもなさそうなので、現時点でディープラーニングに意識は宿ってるっていうのはちょっとナンセンスですよね
それを"ディープラーニングのクオリア"とやらをどうやって観測するの?
— アオミドリ (@alfred_2013) 2017年9月15日
意識の有無を定義する方法は?
そもそも意識の定義とは?
といくらでも突っ込みどころが出てくる https://t.co/xwOcDE7HOZ
そもそも20世紀末からの人工知能研究の急速な発展は「人間の知能の模倣の完全放棄」 を起点としています。その一方では脳科学分野で研究が進み「特定の信号を受けると活性化する脳細胞」が次第に特定されつつあったりするのです。すなわちあと一歩で「クオリア(qualia)の物理的実体性」が証明されるかもしれない段階に差し掛かってる訳ですが、しかしながら、むしろそれ故に「クオリアの積み重ねによって人間の意識が規定可能となる段階」など当面到達不可能という絶望感が静かに広まりつつある現実も。
ましてや「人間の知能の模倣の完全放棄」によって技術蓄積を加速させた人工知能分野における クオリア概念の採用など無意味とも。すでに「自分自身の身体をどう動かすかについて自己シミュレーションが行える運動学(キネマティクス)システム」自体については実用化に向けて最初の一歩を踏み出した様ですが「自らの身体機能の最適化を課題として与えられる自己シミュレーション」に、それを超えた自己シミュレーション能力が付加される事によって、本当に性能の飛躍が有り得るのでしょうか?
*そういえばどうやら植物にもある種の意識が存在し、互いにコミュニケーションを取り合ってる様に見えるらしいのですが、この現象と生物としての生存戦略の関係は全くもって未知数…同種の迷路に嵌まり込んでコンピューター・リソースを無駄に消費する結末以外が果たして有り得るのだろうか?
*人間に追いつこうとするなら、少なくともそれは例えば「問題検知能力」とか「現場対応能力」などを備えなければならない筈なのである。この方面の研究加速につながる可能性までは否定出来ない?
果たして私達はどんな未来に向けて漂流しているのでしょうか?