びぼうぶろぐ。

基本的に自分の備忘録のためですが、同時にどなたかのお役に立てればと思いながら書いています。

Eテレ「人間ってナンだ?超AI入門シーズン2 第2回「感じる」」

Eテレ「人間ってナンだ?超AI入門シーズン2 第2回「感じる」」

最近のAI技術を紹介していく中で、人間とは何ぞやを問う番組。
シーズン2も司会はチュートリアルの徳井さん、
解説はAI研究者の松尾豊さんです。
今回のゲストは為末大さん。

前回から見ていて気づいたんですが
シーズン1と各回のテーマが同じようですね。
しかし内容は違う。
前回から進化している様子を示していく、ということなのかな?
今回の「感じる」もたしかシーズン1の2回目と同じです。
ゲストも同じく為末さんでした。

さて今回のテーマ、
AIは最近物を持ったり、手術をしたりするようになっているが
その際には「触感」が大事、
じゃあ人間の感じる力って一体何なのか?
を探っています

○ゲストの為末さん
 徳井さんは為末さんに
 「前回から進化したことはありますか?」と質問。
 為末さん
 「ロボットって歩くのも覚束なかったのに
  最近は障害物を飛んだりしていますよね、
  なので、僕らハードル競技もそのうち追い越されるかも…(笑)」

 徳井さんは松尾先生に
 「障害物を飛ぶというのも感じることに関係しているんですか?」
 松尾先生
 「そうですね、着地しちゃった所がどういう状態かを感じて、
  それを認識しながら立て直すことなので
  感じることに関係していると思います」

○センサーを搭載した筋電義手
 まずスタジオに登場したのは電気電通大の横井さん。
 彼は筋電義手、というものを持ってきていました

 彼によると
 我々は脳から手に「動け」などの指令を出すが、
 それが電気信号となって筋肉に伝わり
 筋肉で電力となり放電される。これを筋電という。
 電力としては70mVなどという微量の電力だそうですが
 その信号のパターンを見ると、握るのか開くのかが分かるそうです

 そのパターンは、人それぞれ少しずつ違う
 筋電義手、は、
 人によって違う、この筋電のパターンを学習させるのだそうです
 つまりAIにとっては、握れとか動けの脳の指令は、電気信号にすぎないともいえる

 試しに徳井さんと為末さんがこの義手を装着していました
 先に、
 「安静」というボタンを横井さんが押し、装着者には安静にしてもらう
 これで義手は安静の筋電パターンを学習する
 同様に、「握る」「開く」の筋電パターンも学習させる
 実際はこれら3パターンだけではなく、
 最大9パターンの動きを学習させるそうです

 そのあと装着者が手を握ると、
 同じように義手も手を握る
 義手は装着者の手の動きと筋電との関係を学習し、
 装着者の手の動きと全く同じを動きをしていました

 ただ、義手は筋電を読み取ってから反応するので
 本当の手の動きより0.2秒ほどのタイムラグがある
 …一昔前の衛星中継みたいです(笑)

 タイムラグがあるためかぎこちないながらも、
 為末さんと徳井さんはこの義手だけで握手したり、ボールをつかんだり…
 為末さんなんかは見事にキャッチボールもマスターして二人とも大喜び。

 横井さんによれば
 「不思議なことに、大人はこの義手で出来ないことでも、
  高校生はすぐ慣れるんですよね」

 大人はタイムラグに適応できないことが多いが
 高校生は頭の中でタイムラグも考慮して反応できるんだそうです
 徳井さん
 「分かります、おじさんになると、動かしてるつもりで足が動いてなかったりとか…(笑)」

 たしかに若いときよりは体が思ったように動かないよなぁ。
 為末さんは大人ですけど、キャッチボールまでこなしていました。
 運動選手だからこそ適応能力が高いのかもしれないですね。

 横井さんは
 「遠隔操作も可能になってきている」
 「これは手しかないですけど、今は肩から下が全部ある」
 と話していて
 徳井さんは
 「じゃあ遠距離恋愛の彼女を抱き締められるようになるかもしれないですね」(笑)と言いますが
 横井さんは
 「そこまで感覚もできればいいんですけどね…」
 動かす方はできても、ユーザーに感覚を伝えるのはこれからなのですね。

 横井さんによると、この研究は
 「知能の身体性」という意味合いからも興味深いそうで、
 「知能は脳のなかだけじゃなくて、体の中にも相当入っていることになる」

 ただ、その知能は柔軟なもので
 「例えば体のつきかたが違うとボタンの付け方も変わりますけど
  でも人間はしばらくすると慣れるんですよね」
 徳井さん
 「ゲームのときにボタンが変わると違和感ありますけど
  しばらくやっていたら慣れるのと同じですね」

 つまり、身体の変化が逆に脳の信号に変化を与える。
 ロボットによる身体拡張が起きたら
 脳の感じ方も変わるのかもしれない、と。

 そう言えば昔読んだVR関係の本では
 3本の手で工場のライン作業をさせたらどうなるか、
 という研究が紹介されていました
 (たしかNECが出資していた研究です)
 3本アームで作業が効率化するか調べようとしたようですが、
 3本の手でも練習すれば習熟できるんだそうです。
 ほか、6本手足のアバター(映像上の分身)を使いこなせるか、という研究もありましたけど
 これもしばらく訓練したら適応できるみたいです。
 肩とか関節を擬似的に手足のように使うんだそう。
 人間の脳ってスゴいですね…

○義手の学習と赤ちゃんの学習は同じ?
 松尾先生は
 「今義手を使っているお二人を見ていて、
  お二人が面白がっていることが僕は面白かった」と冷めた発言(笑)

 「何が面白いのって感じなんですけど、二人は面白がってる。
  これはかなりすごいことなんですよ」

 徳井さんは
 「小バカにされてる気がする」 (笑)

 松尾先生は絵を描きながら
 「ここに脳がある、
  脳の外側に体があって、
  体の先の方に手が付いている。
  先ほどは、お二人はこの先の方を制御して喜んでたわけですね」

 徳井さん
 「なんかカチンと来ますね」(笑)

 言い方はさておき、先生は以下のように説明していました
 脳は指令を出す、手は動いたり感じたりする。
 しかしこれは脳から見れば、指令の信号を出すことや、感覚の信号を受けとることでしかない。
 人工知能的に見ると、センサーからの信号の入力とアクチュエーターからの信号の出力にすぎない。

 そう考えると
 指令を出す相手、感覚を受ける相手がリアル手でも義手でも、
 脳がやってることは同じなんじゃないか、と。

 ここで先生は赤ちゃんの学習について言及する。
 「赤ちゃんは真っ暗闇で生まれてきて、
  その時に色んな感覚が入ってきたり手足を動かす。
  手足の動きと感覚の関係性が分かってないから適当に動かす、
  その時に最初にスゴいと発見するのが、手を動かすこと」

 つまり脳から「動け」と出した信号が
 本当に自分の手の動きとなってビジュアルで見えること、
 別の信号、例えば「止まれ」などを出したら動きが止まることが見えること、などの経験を通じて、
 指令と動きとの関係を発見するのが非常に大きなことなのだ、と。

 「だから、人間は本能的に、
  何か指令を入れると結果がその通りになるのを面白がるように出来ているんだ、
  と僕は思います」

 徳井さん
 「40過ぎにして、赤ちゃんの疑似体験をしてる
  面白さを今発見しているということなんですかね」

 …なるほど、脳が電気信号を出して、
 それが義手に伝わってる!て喜ぶのがさきほどの義手、
 リアル手に伝わってる!て喜ぶのが赤ちゃんの学習、
 どっちも原理的には同じなのね。

 しかし、それを嬉しく思うようにプログラムされてるのが人間だと分析する松尾先生、
 コンピューター学者らしい見方ですね(笑)

○子供の知能をAIに持たせる研究
 しかしながら、脳から指令が出て体が動く、というのはもう少し複雑なようです

 例えば神経科学者ベンジャミン・リベットの研究では
 脳で意識的な動きの意思決定がなされたあと、
 その0.2秒後に体がそのように動くのだが
 実は意識的な意思決定のさらに0.35秒前に
 無意識レベルでの脳活動が行われている
 つまり無意識レベルの脳活動が人間の動きを決めているともいえる

 松尾先生によれば、コンピューター科学者のマービン・ミンスキー
 「無意識レベルでなされる学習のスキルが大事」と述べているらしい

 (ベンジャミン・リベットの研究はシーズン1でも紹介されていたんですけど、
 じゃあ最初に脳の無意識の動きを作るのはなんなんでしょう?
 たしか脳科学者の池谷裕二さんの本では外的な環境が脳の判断を決定する、としていた記憶していますが)

 このほか、ロボット研究者のヘンス・モラベックのパラドックス
 「AIにとっては、人間にとって難しそうなタスクよりも
  人間にとって簡単なタスクの方が難しい」
 というのがある

 つまり、大人がするような計算などの知的な操作はAIはわりと簡単にこなせるが
 物を握るなど本能的身体的な操作の方がなかなかマスターできない、と。

 松尾先生は
 「しかしこの状況も、ディープラーニングの進歩で変わりつつある」と話していました

 カリフォルニア大学バークレー校のピーター・アビール教授は
 子供の知能やスキルをAIに学ばせる研究をしているそうです

 取材のVTRを見ると、
 このAIロボットがやってる操作は
 箱に三角とか星形など色んな形の穴が空いていて
 その穴に同じ形のブロックを入れていく操作

 うちの子供も3歳くらいに遊んでたオモチャですね…
 穴と全く同じ形のブロックをぴったり差し込まないと箱の中に入らないので、結構難しいんですよね。
 赤ちゃんだとできなくて諦めちゃう。できるようになるとあー成長したなぁ、と思いました。

 アビール教授によると
 「最大の課題はロボットの学習です。
  我々はディープラーニングを使っていて、
  巨大なニューラルネットワークに学習させ、自動的に判断させている」

 「我々の狙いは子供の知能をロボットで再現させること。
  実はチューリング博士も1940~50年代に同じことを提案している。
  子供の知能さえ学ばせることができれば
  大人の知能も自分で学ぶようになる、と」

 アビール教授のロボットは、
 今のところ穴にブロックを入れるのを学ぶのにかかるのは1時間、
 これは子供の学習能力とだいたい同じなのだそう
 「白紙の状態から身に付けるまででそのくらいの能力ですが、
  でも学習中のロボットと子供との類似性は興味深いものです」

 AIも子供から大人に自力で成長するんかな?

○電気信号のやり取りが世界を作っている
 松尾先生によると
 脳はもう1つ難しいことをしているそうです

 それは、脳は電気信号のやり取りから世界を作っていること、だそうです
 脳を義手を動かす働きと同様だと考えると、
 脳の処理はこの時間にセンサーでこういう信号を受け取った、
 この時間にアクチュエーターにこういう指令を出した、
 という命令の羅列でしかない。
 しかし脳は、この羅列を重ねていくことで、
 次第に世界が三次元構造であることを見つけ出しているのではないか、と。

 為末さん
 「もしこんなシンプルなもので世界ができているなら、
  逆に(シグナルの羅列で)人間を作れるんじゃないですか」

 松尾先生
 「それは正に研究者がやろうとしていることで、
  こういうデータの系列から外部構造を作ろう、という試みが
  今研究の世界で行われています」

 うーん。これはどうなんだろう。
 データの羅列から世界ができているのか、
 それとももしかして、人間の脳構造がデータの羅列だから世界がそう見えているのか。
 哲学的な話ですね…

○身体は必要なくなる?
 次に松尾先生は、たくさんのデータさえあれば身体も必要なくなるのでは、と大胆な?こともおっしゃっていました

 為末さん
 「データを出して入れる単純な操作が人間の賢さなんですか?」

 松尾先生
 「賢さの土台にはなっているとは思います」

 先生は人間の知能は2階建て構造になっていると思っていて、
 2階にあるのが言葉、
 1階がこの土台である身体性、
 つまり知覚と行動とのデータのやり取りループに当たる、と。

 そして、
 土台が2階部分を作るだけでなく、逆もあるのではないか、と。
 例えば運動選手などは体の動きを言葉に変えるとより理解が深まることがあるが、
 それは2階部分の言葉の刺激から、
 1階部分、つまり体の動き方のヒントを得て学ぶということなんじゃないか、と。

 為末さんは
 「では、体が無いと人間の知能は生まれないということなんですか」
 松尾先生
 「それが、非常に重要な昔からのAI研究の問いなんですよね」

 徳井さん
 「じゃあ頭だけ、脳だけ生まれてきて体がないなら、
  他の刺激から学習していくことができないんですかね」

 すると松尾先生は意外なことを言います。
 「別に僕は体の必要性はないと思っている」
 つまりセンサーやアクチュエーターが世界中に散らばっているならば
 体は必要ないのではないか、と。
 今までは体がある方が学習が早いから体があったが
 代わりになるセンサーがたくさんあれば学習できるのではないか、と。

 (このあたりの議論は、シーズン1と比べると興味深い。
 シーズン1では、身体の経験、つまり1階部分の刺激が
 人間の知能、つまり2階部分を作る、と議論しているのは同じ。

 でもシーズン1では、だから頭だけの機械じゃ知性は生まれないんじゃないか、
 という話になっていましたが
 今回は頭だけの機械でも、センサーさえ大量データで取れればOKなんじゃないの、となっています。
 それだけビッグデータ技術の進歩は早いということなのか…)

○身体の動きを学習する研究
 徳井さん
 「義手や自動運転(などのAI技術)が
  もっと日常生活に応用できるようになるには何が必要なんでしょう」

 松尾先生
 「今は画像認識の精度が高まっていて、
  ここに外界にあるアクチュエーターを制御する仕組みが加われば
  色々出来るようになると思います」

 つまり身体、1階部分の動きの学習ですね。
 ただ、
 「信号を制御する仕組みが難しい」そうで
 そのために
 「パターンをどうやって抽出させるか」が課題なのだそうです

 「そのために、例えば
  模倣学習、人間が手本を見せて真似させる仕組みや
  こういう状態はいい、こういう状態は悪いという設定を予めしておいて、
  上手くいくような系列を自分で見つけ出していく、
  などのやり方が必要ですね」

 (模倣学習は実はシーズン1で説明があり
 特徴としては、動作を一つ一つセグメント化(区切る)して、手順を追って学ばせるやり方なのだそう。
 ただ、人間はそのセグメント化される動作一つ一つは無意識に行っていて、
 人間の場合は逆に、意識しちゃうと動きがぎこちなくなって上手くいかない、てのが興味深かった)

 カリフォルニア大学バークレー校では
 手術ロボットの研究も進んでいて
 患者の肌触りをどうやって感じ、経験に生かすか
 などの研究も進んでいるそうです

 さきほどVTRで出ていたこの大学のアビール教授は、
 模倣学習以外にも新しい手法を取り入れているそうです
 ほとんどは教師有り無しの深層学習、模倣学習などだそうですが
 最近は「転移学習」という新たな手法もあるらしい

 これは現状からだけではなく、
 過去の経験からも学習する(ある経験を別の経験に転用する)学習法だそうで
 大人が過去から学ぶことで素早く学ぶように
 より学習のスピードを上げることを目指しているそうです

○一流スポーツ選手は転移学習している
 松尾先生は
 「転移学習は面白いんです」と言う。

 転移学習とは、例えば走るのが上手くなると、
 体が上手く使えるのでボールの扱い方も上手くなり、サッカーが上手になる、
 そうなると他の競技の学習も早くなる、という現象だそう

 そう言えば子供のときも、バスケやサッカーが上手い子は、
 水泳部とか陸上部にもかり出されていました。
 運動できない人間から見れば何でもできるなんてズルいなぁと思ったけど、
 それは当たり前のことだったのね。

 松尾先生の考え方によると
 野球の大谷選手など、トップ選手は転移学習に習熟しているのではないか、と。
 つまり過去の別の動作の経験から
 体の命令と動きの関係を素早く理解していて、
 それを別の動作をするときに応用できる。
 あるいは他人の体の動かしかたを見て、
 自分の体の動かしかたに取り入れるのが上手、など。

 このようにして効率的な学習ができているのではないか、と。
 フィギュアの羽生くんなんかも、上手い選手のジャンプを見てたらジャンプ跳べるようになった、とか言うから
 多分この能力が高いのだろう。

 為末さん
 「運動選手の上手い下手は、体の動かしかたとか、出力の問題かと思っていたんですけど
  フィードバックの受け取り方が上手いか下手かの問題かもしれないんですね」

 松尾先生
 「僕は、潜在的な要素に分解するのが下手なんじゃないかと思っています」

 分解する、というのは、
 例えば運動するときは周りの状態、自分の体の状態などの要素があるが
 それらの要素の関係を解きほぐすこと。
 そしこれが有効な要素、これは重要じゃない要素、
 という単純な構造を見つけ出す能力の問題ではないか、と。

 為末さん
 「重み付けの付け方ですか…」
 松尾先生
 「Disentanglement、もつれを紐解くということなんですけど、
  もつれを解きほぐして要素に分解する能力が
  運動選手は強いんじゃないかと思います」

 ふーむ。情報を受けとるだけではなく、動作を分析し、重点を置くポイントをつかむ能力が高いのですね。
 たしかに運動できない人間からすると
 お手本見せられても何をどうしたらいいんかわからんから体が動かない、てのはある。

 これは機械の動かしかたとかも同じで、
 マニュアル見るだけじゃなくて
 機械のどこをピンポイントに調整したらいいかわかると
 すぐに使えるようになりますよね。

○補聴器も進化している
 次に登場したのは補聴器メーカーの高橋さん。

 彼女は補聴器を持ってきていて
 徳井さんも身に付けていましたけど
 違和感なく聞き取れる、と。
 高橋さんによると最近の補聴器はノイズを除去するのだそうです。

 松尾先生は
 「ノイズかノイズじゃないかを分けるのって難しいんじゃないかと思いますけど…」

 高橋さんによると
 「補聴器が外部を360度スキャンして、
  会話なのかノイズなのかを瞬時に判断している」

 松尾先生
 「意味内容によってノイズかそうでないかを切り替えするのは
  人間の中でもかなり高度な知能だと思いますが」

 高橋さんは
 「まだ騒音と音声は完全に区別できていなくて、
  周囲の音声は残るので
  自分がより注意を向けたい方向に注意を向けるのは脳が補っています」

 つまり彼女の会社の補聴器は
 ノイズか否かはやはりユーザーが判断し、そのあと機械がノイズを除去している、と。
 (ユーザーの判断をどうやって機械に反映させているのかは不明だが)

 一方、デンマークにあるオーディコン補聴器というメーカーの
 エリクスホルム研究センターでは
 このノイズか否かの判断にディープラーニングを利用する研究をしているそうです

 ここのプロダクトマネージャーによると
 ここではユーザーに実際に試験してもらいながら開発しているそうです。

 例えばユーザーに同時に2つの声を聞かせて集中してもらう
 これは難しい操作だが、
 「2つの声を両耳に分けることで
  パフォーマンスが向上した」

 「このシステムは、時間をかけて周りの人の声を学習し、
  ライブラリーを築き、
  対象者を切り替えることで集中したい人の声だけに集中できる」

 初めて会う人でも、
 3分ほどその人の声を聞けばライブラリーができるそうです

 ここの研究者は
 「5年後には補聴器にニューラルネットワークを導入したい」と話していました

 松尾先生は
 「人間の聴覚は複雑なことをやってきて、
  同じ音でも文脈によってはノイズ、文脈によってはノイズでないものに切り替えられる」

 例えば「今ブーン、て音しなかった?」という会話の時は
 ただのノイズだったブーン、という音を
 集中するよう自然に切り替えている
 「ノイズだとしても、
  音が聞き分けられていないとノイズか分からない、
  そこを人の脳はやっている」

 機械だと、ノイズだと認識すると切り捨ててしまう。
 しかし人間は、ノイズかどうかはその時の雰囲気や文脈により柔軟に切り替える。
 そのために、全ての音を脳に保存しているのだろう。

 ちなみに病気で脳に障害を受けた方の本によれば
 脳の働きが弱くなってから、人混みなどにいくと、情報の洪水に悩まされ、苦痛になるのだそうです。
 つまり状況に応じて要らない情報は無視する(しかし情報自体は脳に保存しておく)働きも
 かなり高度な知性なのですね。

○同時に話す人の声を聞き分ける技術
 埼玉県和光市
 ホンダ・リサーチ・インスティテュート・ジャパン
 ここには聴覚についてAIを使った研究をしている

 このAIが今からオーダーを取ります、というと
 同時に四人が食べたいものを言っていました

 するとこのAIは
 「エビフライ定食、焼き魚定食、唐揚げ定食、フランス料理フルコース」
 と、見事に全て聞き分けていました
 (私はエビフライと唐揚げしか分かりませんでした(笑))

 このAIロボットには16個の小さい穴(数ミリくらい?)が空いていて、位置が少しずつ違う
 それぞれの穴にマイクがついていて、
 音源の位置によって、音源からマイクに音が届くまでの時間と方向が異なる
 この違いを利用して、特定の方向からくる音だけを聞き分けて抽出する、
 というやり方を取っているそうです

 これにより11人の声が聞き分けられているんだそう

 ここの研究者によると
 「この研究は災害時に利用できる」
 例えば災害時、瓦礫の場所から
 助けて、という声とか
 携帯電話の音など
 人がいる所を見つけ出せる、
 などの応用が期待されているそうです

 人間だと人混みのザワザワから誰かの声を聞き分けるのはカクテルパーティー効果とか言いますが
 抽出の仕方は同じなんだろうか。

○人間はマルチモーダル
 松尾先生は
 「人間は複合的に情報を処理するのが面白い」
 という話をしていました

 聴覚は大脳新皮質に伝わるが、
 大脳新皮質
 聴覚以外にも、視覚など別の感覚器からの情報も受けとっているのだそう

 為末さんも
 「風邪を引いて鼻がきかないと食べ物も美味しくない、
  味だと思っていたものが実は視覚や嗅覚など色んな所からの影響がありますよね」

 松尾先生によればこれは
 「モダリティー」といい
 人間は「マルチモーダル」、
 つまり1つのモーダルが別のモーダルに影響し
 いろんなモーダルの複合体として情報を受け取っている、と話す。

 なぜマルチモーダルかというと、
 「こうすることで、世界の構造を素早く見つけ出すのだと思います」

 てことは、脳はかなりの情報量を受け取っているんですね…

○今後の研究
 為末さんは補聴器の話を聞いて
 「運動選手はよくゾーンに入る、と言いますけど
  このゾーン体験の時は音が消える、という人が多いんです。
  例えば周りの音が消えてバットの音だけ聞こえるとか、足音だけ聞こえるとか…
  逆に集中できない人は
  周りの音が聞こえすぎるという話も聞くので、
  周りの音を消す補聴器を作って、
  ゾーン状態を擬似的に作り出したら、
  オリンピックでもいい成績が出せるかも…」
 と面白いことを話していました
 ゾーンになるのは音の効果だけなのかな?
 脳波を変える、ていう研究はあったような気がするけど。

 また、松尾先生は
 「ロボットに好奇心を入れようという動きもあります」と。

 これは、人間はなぜ飽きやすいか、ということの考察から来ているらしい。

 人間がなぜ飽きるか、を考えると
 それは人が新しい世界に出ていくためではないか、と。

 新たな発見や発明をしていくには
 自分の脳の中で、ある程度モデルができて慣れてしまったものより外の領域にも出ていかないといけない、
 だから知らない世界にワクワクするように人間はできているんじゃないか、と。

 「ここで「知らない世界」の定義とは何かを考えると、
  予測が当たらないことなんですね」

 そこで、
 予測と現実との解離度が高い(予測が外れる)ほど
 好奇心が高まるような機械をあえて設計するとどうなるか、
 という研究も進んでいるそうです

 徳井さん
 「子供のAIに近づきそうですね」
 松尾先生
 「子供のAIを作るときに、まず設計しなきゃいけない要素かもしれないですね」

 NHKスペシャルの人類誕生の話では
 好奇心が人間の生き残りに寄与した
 (たしか食糧不足の時に、貝という未知の食べ物を口にしたから生き残れたとかいう話だったような)
 という話がありましたけど
 人類は好奇心で命を落とす(例えば未知の食べ物が毒だったとか)こともある。
 つまりハイリスクハイリターンなことをやっているわけですが
 死なないAIが好奇心を持つようになっちゃったらどうなるんかなぁ、と思います。いい方向に転べばいいんですけど。


今回は、人間や動物においては身体感覚が知能を作る、
ならば人間の身体機能が人工的に拡張したら人間の知能はどうなるのか、
という話になっていたのが面白かったです。

AI研究者の間でもAIの定義は分かれていると聞いたことがあります。
身体の無いコンピューターソフトだけのAIもあるが、
頭の無い手足だけのロボットがセンサーから自己学習していく形のAIもある。
しかし中枢(頭)の無い手足だけのロボットをAIと呼んでも良いのか?と。
知性は脳に宿るのか、身体に宿るのか、と。

今までは脳みそだけがAIのメインだったような気がする(少なくとも一般人の持つイメージはそうだろう)けど
身体感覚が知能を作る、という考え方が当たり前になってきているのかな、と感じました。

シンギュラリティ説で有名なカーツワイルさんがインタビューで
そのうち人間は身体に電子チップを埋め込んで、
身体機能を拡張していくんじゃないかとか話していましたが、
そうなったら知能とか発想の仕方も変わっていくんかなぁ。
本当に全く違う人間が生まれるのかもしれないですね。

カーツワイルさんの話を聞いていたときはふーんとしか思ってなかったけど
身体が拡張したら、
脳みそも身体に付随して拡張する、
となればえらいことなのかも。

最近はVRの技術も進んでいるので
その方面から、つまり身体の体験抜きの方向からも
脳機能の拡張が進むかもしれません。

色々勉強になりました。
というわけで今回はこの辺で。