Neural Network for Prediction

Report
適応システム理論
ガイダンス
Introduction to Neural Networks
Kenji Nakayama
Kanazawa University, JAPAN
PPTファイルの入手方法
http://leo.ec.t.kanazawa-u.ac.jp/~nakayama/
Education
授業科目 Lecture Subjects
適応システム理論
平成20年度 ガイダンスPPTファイル
Neural Networks
Network Structures
Multi-layer Network
Recurrent Network
Learning Algorithms
Supervised Learning
Unsupervised Learning
Functions
Pattern Mapping and Classification
Estimation and Prediction
Associative Memory
Optimization and Minimization
Multi-Layer Neural Networks
Artificial Neuron Model
Activation (Nonlinear) Function of Neuron
Active
1
y
u
1 e
Inactive
1  e u
y
1 eu
Space Separation
Pattern Classification by Single Neuron
Linearly Inseparable Problem
Two Layer Neural Network
Pattern Classification by Two-Layer NN
- Region Separation by Hidden Units-
Pattern Classification by Two-Layer NN
- Class Separation by Output Unit -
Learning of Connection Weights in Single-Layer NN
Gradient Method
E[e2 ] is minimized
Learning of Connection Weights in Multi-Layer NN
- Error Back Propagation Algorithm -
Gradient Method
Chain Rule in
Derivative
Learning Process (Initial State)
u=0
Learning Process (Middle State)
u=0
Learning Process (Middle State)
u=0
Learning Process (Convergence)
u=0
Training and Testing for Pattern Classification
Application 1
Prediction of Fog Occurrence
Number of Fog Occurrence
Fog is observed
every 30 minutes
Neural Network for Prediction
Weather Data
・Temperature
・Atmospheric Pressure
・Humidity
・Force of Wind
・Direction of Wind
・Cloud Condition
・Past Fog Occurrence
・・・・・
20 kinds of weather data are used
Connection Weights from Input to Hidden Unit
Connection Weights from Hidden to Output
Fog will occur
Fog won’t occur
FFT of Connection Weights Used for Predicting Fog
Input→Hidden Unit #6
Input→Hidden Unit #10
FFT of Connection Weights for Predicting No Fog
Input→Hidden Unit #3
Input→Hidden Unit #14
Prediction Accuracy of Fog and No Fog
Application 2
Nonlinear Time Series Prediction
Examples of Nonlinear Time Series
Examples of Nonlinear Time Series
Sunspot
Lake
Level
Chaotic
Series
Nonlinear Predictor Combining NN and Linear Filter
Prediction Accuracy by Several Methods
Prediction Accuracy by Several Methods
Application 3
Prediction of Machine Deformation
Numerically Controlled Cutting Machine
Cutting Tool
Objective
Deformation of Cutting by Temperature Change
Machine Temperature Change in Time
Deviation of Cutting by Temperature Change
Tolerance
Prediction of Deformation Using NN
Tolerance
応用4
ニューラルネットワークによる
タンパク質二次構造予測
タンパク質はアミノ酸配列が立体的に
折り畳まれることによって生じる
立体構造がタンパク質の機能性を決定
IJCNN‘2002
R.Pollock,T.Lane,M.Watts
立体構造の中に部分的に存在する規則構造
タンパク質二次構造
タンパク質二次構造予測は
タンパク質構造解析において非常に有用
データの操作
・1個のアミノ酸の二次構造を予測するため
前後4個(計9個)のアミノ酸の情報を使用
・1個のアミノ酸に22個の入力ユニット
(各アミノ酸種20個、スペーサ1個、不変重み1個)
・入力ユニット22*9個、出力ユニット3個
従来法との比較
70
応用5
ニューラルネットワークによる
ブレイン・コンピュータ・インターフェイス
ブレイン・コンピュータ・インタフェイスとは
• 人間とコンピュータのインタフェースとして、
現在、さまざまなものが使用されている
• 近年、脳波を解析して行う手法に注目
(ブレイン・コンピュータ・インタフェース:BCI)
• 重度の運動障害を抱える患者が機器を操作
するのを助ける、といった応用が期待されて
いる
BCIの処理の流れ
• ユーザがやりたいことを想像し、そのときの
脳波を測定する
・メンタルタスク(想像する課題)を使用
• 脳波を解析し、ユーザの意図を推定する
• 推定結果に基づいて、機器を操作する
○○
した
い
脳波の測定
対応する
タスクを
想像
特徴抽出
脳波
特徴量
特徴分類
分類器
機器の操作
タスク
BCIの方式
• 特徴量
・ 周波数スペクトル
・ AR係数
• 分類方法
・ ニューラルネットワーク
・ 隠れマルコフモデル
・ 線形分類
本研究で用いた手法
• 特徴量
フーリエ変換の振幅
• 分類方法
ニューラルネットワーク
• 脳波データ
コロラド州立大学が公開しているデータ
メンタルタスク
5種類のメンタルタスク:
•
•
•
•
•
B : できるだけリラックス
M: 掛け算を暗算で行う(49×78など)
L : 手紙の文を考える
R : 回転する3次元物体を想像する
C : 数字を順番に書くことを想像する
脳波の測定
• 脳波を測定する電極の数は、7個
C3, C4, P3, P4, O1, O2, EOG(まばたき検出)
• 1回の測定は、 10 秒間
• 250Hzで、サンプリング
→1チャネルあたり、2500サンプル
脳波のサンプル
250 Hz × 10 秒 = 2500 サンプル
C3
C4
P3
P4
O1
O2
EOG
1チャネル分の脳波データ
このような波形が、7チャネル分ある
特徴抽出
•
•
•
•
脳波
セグメント分割
フーリエ変換の振幅
サンプル数の低減
データの非線形正規化
セグメント
分割
フーリエ
変換振幅
サンプル
平均化
非線形
正規化
入力
データ
セグメント分割
0.5 秒
0.5 秒
0.5 秒
・・・
0.5 秒
セグメントごとに
フーリエ変換
• 10 秒のデータを 0.5 秒のセグメントに分割
• 0.25 秒ごとに、分類結果を出す(上の↓)
・・・
フーリエ変換の振幅
サンプル数125
サンプル数の低減
• 連続する複数サンプルで
平均することにより、サンプル数を低減
サンプル数125
サンプル数20
データの非線形正規化
• データの分布を広げるために正規化を行う
f ( x)  log( x  min1) / log(max min1)
データの非線形正規化
• 振幅は、対称なので半分だけ用いる
正規化
7チャネル分並べたものが、入力データとなる(10×7=70サンプル)
ニューラルネットワークによる分類
•
•
•
•
隠れ層1層の2層形ネットワーク
学習:バックプロパゲーション
活性化関数:シグモイド関数
出力ユニット: 5種類のタスクに対応して、5
個用いる
• 学習の際の目標出力は、
1:該当するタスクに対応する出力ユニット
0:その他の出力ユニット
ニューラルネットワークによる分類
• 最も大きな値を持つ出力ユニットに対応する
タスクを分類結果とする
• 出力が全体的に小さい値のときは、
リジェクト(判定不能)とする
1
2
3
・
・
・
・
4
5
0.3
0.9
0.1
0.0
0.2
分類結果は、タスク2
1
2
3
・
・
・
・
4
5
0.1
0.1
0.2
0.0
0.1
リジェクト(判定不能)
シミュレーション
• 5種類のメンタルタスクに対して、
10回ずつ測定を行ったので、合計50個の
データセットがある
• このうち、40個を学習に、残りの10個を
テストに用いる
• テストに用いるデータを変えて、5回シミュ
レーションを行い、その平均値で、結果を
評価する
シミュレーション
• 2人の被験者の脳波を用いて、それぞれ
シミュレーションを行った
•
•
•
•
•
隠れ層のユニット数: 20
学習係数: 0.2
結合重みの初期値: ±0.2の範囲でランダム
学習回数: 5000
リジェクトのための閾値: 0.8
学習・テストデータに対する正答率
被験者1
被験者2
被験者1・2の正答率と誤答率
学習データ
テストデータ
被験者
正
誤
1
99.7
0.1 0.99 79.7 10.5 0.88
2
95.5
0.8 0.99 45.5 33.7 0.57
比
正
誤
比
脳磁計を用いたBCI
MEG(Magnetoencephalograph)
• 脳の電気的な活動に伴って生じる磁場(脳
磁)をSQUID(超伝導量子干渉素子)を用
いて検出
• 仰臥して計測→被験者の負担が小さい
• 空間解像度が高い(mm~)
• 時間解像度が高い(ms~)
センサと頭部の対応付け
• 脳磁計のマーカ測定とMRI画像との位置
合わせにより,チャネル位置を推定
チャネル選択
• 前頭葉・頭頂葉・側頭頂・後頭葉から2chず
つ,合計8ch選択
• 各部位とセンサ位置の対応付けを決定し,
各部位の中心・両半球のセンサを選択
メンタルタスク
4種類のメンタルタスクを用いる
• Baseline:何も考えずリラックス
• Multiplication:3桁×1桁の暗算(例:456×8)
• Sports:体を動かす様を想像
• Rotation:回転する3次元物体を想像
(物体の形状は被験者に任意)
脳磁波形(時系列波形)
チャネル位置の最適化
初期状態
最適化後
性能評価
脳磁データ
4メンタルタスク×10 trial
↓
40セット
学習データ
32セット
5種類の特徴分類の平均値で正答率を評価
テストデータ
8セット
各被験者の分類性能
正答率/誤答率
分類性能/被験者
被験者1
被験者2
被験者3
初期状態 [%]
90.0/10.0 82.5/17.5 57.5/42.5
最適化後 [%]
97.5/2.5 85.0/15.0 72.5/27.5
Recurrent Neural Networks
Recurrent Neural Network
Hopfield Neural Network
・Symmetrical Connections
wij  wji
・No Self-loop
・One neuron randomly selected is updated.
・The energy function always decrease
or stay at the same value.
・Memory Capacity is about 15% of Neurons
Associative Memory (1)
4x4=16 Neuron RNN
6 Random Patterns {pi} are Stored
Connection Weights
M
W   pi pi
T
i 1
★Demonstration
Association from another random patterns
Traveling Salesman Problem
Active Neuron
Inactive Neuron
(5×5 Neurons)
Associative Memory (2)
・Error Correction Learning with Hysteresis
・Adaptive Hysteresis Threshold for Association
・51 Alphabet Letters and 10 Digits are Stored
in 16x16=256 Neuron RNN. 25% of Neurons
Association of ‘M’ from Its Noisy Pattern
Association of ‘M’ from Its Right Half Pattern
Association of ‘M’ from Its Upper Half Pattern
Competitive Learning
Lateral Inhibition Model
END OF THIS LECTURE
THANK YOU

similar documents