画像認識の学会に来ています。特別講演「脳画像から心を見る」が面白かったので、追えた範囲でご紹介します。
MRI画像のデコーダをニューラルネットワークでつくることができる #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
二つの模様を見せ、片方に注目させると、その模様に対応するパターンが現れる #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
[https://twitter.com/weed_7777/status/625834292615077889:embed#心の状態の数は膨大。10x10のピクセル画像でも2100個の条件がある。現実的に実験できない。 #MIRU2015]
10x10の画像を脳の状態に1対1対応させるのではなく、中間に幾つかの状態があると考える。これはうまくいった。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
ディープラーニングのモデルと脳の構造は似ているところがある #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
CNNを5層〜8層とると、画像のラベリングの正答率が上がってくる。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
睡眠中の夢は視覚的なもの。夢を見ているときの脳の状態をモニターすることで夢の内容を予測する。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
被験者に脳波計測器具を着け、眠ってもらい、夢のパターンが計測されると被験者を起こして、どんな夢を見ていたか聞く。夜だけでなく昼食後も実験可能。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
そもそも夢は映像だけなのか?意味的なものがあるのではないか?被験者にキーワードを出してもらうって、脳の状態との対応関係を機械に学習させる。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
夢を見ている脳波は20秒くらいしか出ていない。他の夢もデコードできるようになるかもしれない。一晩の夢の内容を教えてくれる装置を作ることができるかもしれない。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
課題。まだ精度が低い。学習データが必要。感情(嬉しい、怒る、心配)のデコードができない(実験ができない)。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015
講演終了。講演者は @ykamit 先生。 #MIRU2015
— 植田 達郎(Tatsuro Ueda) (@weed_7777) July 28, 2015