その複雑なつながりに さまざまな信号を送ることで学習するシステム感じることによって 障害を跳ぶっていうことなんですかね?ロボットが足元の状況を人間のように感じて筋肉の信号?はい。 脳から神経信号が伝わってきて筋肉の表面で こう筋肉の筋電位と呼ばれる筋肉の放電現象が起きるんですね。 それが信号となって 神経を通って筋肉に伝わります。 私たちAIにとってはただの電気信号なんですけどね。 これから何をやるかといいますと徳井さんの筋肉の電気信号と脳からの指令を 信号として認識。
知能っていうのは脳の中にあるだけじゃなくて身体の中に相当な その機能が入っちゃってるのでアクセルとブレーキの割り当てパッと変えたりすんのと同じ感覚ですね。 あれ 何かあれは何が面白いの?っていう感じなんですけど相当面白がられてましたよね。 それって すごいことで僕は 人間が かなり本能的に何かを動かすと 何かの結果が変わるっていうことに対して面白く感じるように設定されてると思ってるんですよ。
ロボットが知っているのは自分の指先にあるブロックの位置情報だけ。 だから それ頭だけ 脳だけが生まれてきた場合じゃあ 身体がないのであればほかのことから学習していくっていうことはないんですかね?そこが 本当に面白いところで要するに センサーとアクチュエーターっていうのは世界中に散らばっててもいいわけですよ。 そこから脳が学習してこのセンサーとアクチュエーターの間の関係を学べばいいわけですよね。
そういったパターンの学習をどうやってさせるかっていうのはすごく難しいことで例えば 模倣学習っていう手法では人間がお手本を見せてあげることによってそういった動作を 効率的に学習するっていうのをやりますしまあ 試行錯誤しながら見つけていく。 僕は 大谷選手とかですね僕は すごい転移学習とか模倣学習とかをやりまくってんじゃないかなと思ってまして。 それと同じようなですね技術っていうのが模倣学習とか 転移学習とかそれから教師なし学習とかそういった技術がですね今 進められているっていう。
最新の補聴器の場合は周囲の音声は残りますから自分が より注意を向けたい方向に注意を傾けてその部分は人間の脳で補って注意を切り替えて聞くということができると。 人間の聴覚がやってることっていうのは非常に複雑なことをやっていて文脈によっては ノイズになるものが文脈によってはノイズにならない。 音声認識はAIの技術ですので大量のデータで学習したシステムになっているということです。 視床下部っていうところを通じて情報が入ってきて大脳皮質っていうとこで処理してるんですね。