Neural Network for Prediction

```適応システム理論
ガイダンス
Introduction to Neural Networks
Kenji Nakayama
Kanazawa University, JAPAN
PPTファイルの入手方法
http://leo.ec.t.kanazawa-u.ac.jp/~nakayama/
Education

Neural Networks
Network Structures
Multi-layer Network
Recurrent Network
Learning Algorithms
Supervised Learning
Unsupervised Learning
Functions
Pattern Mapping and Classification
Estimation and Prediction
Associative Memory
Optimization and Minimization
Multi-Layer Neural Networks
Artificial Neuron Model
Activation (Nonlinear) Function of Neuron
Active
1
y
u
1 e
Inactive
1  e u
y
1 eu
Space Separation
Pattern Classification by Single Neuron
Linearly Inseparable Problem
Two Layer Neural Network
Pattern Classification by Two-Layer NN
- Region Separation by Hidden Units-
Pattern Classification by Two-Layer NN
- Class Separation by Output Unit -
Learning of Connection Weights in Single-Layer NN
E[e2 ] is minimized
Learning of Connection Weights in Multi-Layer NN
- Error Back Propagation Algorithm -
Chain Rule in
Derivative
Learning Process (Initial State)
u=0
Learning Process (Middle State)
u=0
Learning Process (Middle State)
u=0
Learning Process (Convergence)
u=0
Training and Testing for Pattern Classification
Application 1
Prediction of Fog Occurrence
Number of Fog Occurrence
Fog is observed
every 30 minutes
Neural Network for Prediction
Weather Data
･Temperature
･Atmospheric Pressure
･Humidity
･Force of Wind
･Direction of Wind
･Cloud Condition
･Past Fog Occurrence
･････
20 kinds of weather data are used
Connection Weights from Input to Hidden Unit
Connection Weights from Hidden to Output
Fog will occur
Fog won’t occur
FFT of Connection Weights Used for Predicting Fog
Input→Hidden Unit #6
Input→Hidden Unit #10
FFT of Connection Weights for Predicting No Fog
Input→Hidden Unit #3
Input→Hidden Unit #14
Prediction Accuracy of Fog and No Fog
Application 2
Nonlinear Time Series Prediction
Examples of Nonlinear Time Series
Examples of Nonlinear Time Series
Sunspot
Lake
Level
Chaotic
Series
Nonlinear Predictor Combining NN and Linear Filter
Prediction Accuracy by Several Methods
Prediction Accuracy by Several Methods
Application 3
Prediction of Machine Deformation
Numerically Controlled Cutting Machine
Cutting Tool
Objective
Machine Temperature Change in Time
Deformation of Cutting by Temperature Change
Deviation of Cutting by Temperature Change
Tolerance
Mean Squared Error Reduction by Learning NN
Prediction of Deformation Using NN
Tolerance
ニューラルネットワークによる
タンパク質二次構造予測
タンパク質はアミノ酸配列が立体的に

ＩＪＣＮＮ‘２００２
Ｒ．Ｐｏｌｌｏｃｋ，Ｔ．Ｌａｎｅ，Ｍ．Ｗａｔｔｓ

タンパク質二次構造
タンパク質二次構造予測は
タンパク質構造解析において非常に有用
データの操作
・１個のアミノ酸の二次構造を予測するため

・１個のアミノ酸に２２個の入力ユニット
（各アミノ酸種２０個、スペーサ１個、不変重み１個）
・入力ユニット２２＊９個、出力ユニット３個

７０
ニューラルネットワークによる
ブレイン・コンピュータ・インターフェイス

• 人間とコンピュータのインタフェースとして、

• 近年、脳波を解析して行う手法に注目
（ブレイン・コンピュータ・インタフェース：ＢＣＩ）
• 重度の運動障害を抱える患者が機器を操作
するのを助ける、といった応用が期待されて
いる
ＢＣＩの処理の流れ
• ユーザがやりたいことを想像し、そのときの

・メンタルタスク（想像する課題）を使用
• 脳波を解析し、ユーザの意図を推定する
• 推定結果に基づいて、機器を操作する
○○
した
い

タスクを

タスク
ＢＣＩの方式
• 特徴量
・ 周波数スペクトル
・ ＡＲ係数
• 分類方法
・ ニューラルネットワーク
・ 隠れマルコフモデル
・ 線形分類
（文献［3］）

• 特徴量
フーリエ変換の振幅
• 分類方法
ニューラルネットワーク
• 脳波データ
コロラド州立大学が公開しているデータ

•
•
•
•
•
•
•

Ｂ ： できるだけリラックス
Ｍ： 掛け算を暗算で行う（49×78など）
Ｌ ： 手紙の文を考える
Ｒ ： 回転する3次元物体を想像する
Ｃ ： 数字を順番に書くことを想像する

• 脳波を測定する電極の数は、７個
C3, C4, P3, P4, O1, O2, EOG（まばたき検出）
• １回の測定は、 10 秒間
• 250Hzで、サンプリング
→１チャネルあたり、2500サンプル

250 Hz × 10 秒 ＝ 2500 サンプル
C3
C4
P3
P4
O1
O2
EOG
１チャネル分の脳波データ
このような波形が、７チャネル分ある

•
•
•
•

セグメント分割
フーリエ変換の振幅
サンプル数の低減
データの非線形正規化
セグメント

フーリエ

サンプル

データ
セグメント分割
0.5 秒
0.5 秒
0.5 秒
・・・
0.5 秒
セグメントごとに
フーリエ変換
• 10 秒のデータを 0.5 秒のセグメントに分割
• 0.25 秒ごとに、分類結果を出す（上の↓）
・・・
フーリエ変換の振幅
サンプル数１２５
サンプル数の低減
• 連続する複数サンプルで

サンプル数１２５
サンプル数２０
データの非線形正規化
• データの分布を広げるために正規化を行う
f ( x)  log( x  min1) / log(max min1)
データの非線形正規化
• 振幅は、対称なので半分だけ用いる

７チャネル分並べたものが、入力データとなる（10×7=70サンプル）
ニューラルネットワークによる分類
•
•
•
•

５個用いる
• 学習の際の目標出力は、
１：該当するタスクに対応する出力ユニット
０：その他の出力ユニット
ニューラルネットワークによる分類
• 最も大きな値を持つ出力ユニットに対応する
タスクを分類結果とする
• 出力が全体的に小さい値のときは、
リジェクト（判定不能）とする
1
2
3
・
・
・
・
4
5
0.3
0.9
0.1
0.0
0.2

1
2
3
・
・
・
・
4
5
0.1
0.1
0.2
0.0
0.1
リジェクト（判定不能）
シミュレーション
• ５種類のメンタルタスクに対して、
１０回ずつ測定を行ったので、合計５０個の
データセットがある
• このうち、４０個を学習に、残りの１０個を
テストに用いる
• テストに用いるデータを変えて、５回シミュ
レーションを行い、その平均値で、結果を

シミュレーションの条件
• ２人の被験者の脳波を用いて、それぞれ
シミュレーションを行った
•
•
•
•
•

リジェクトのための閾値： 0.8

テストデータ

１
99.7
0.1 0.99 79.7 10.5 0.88
２
95.5
0.8 0.99 45.5 33.7 0.57

テストデータに対する正答・誤答表
B
B
M
326
L
R
C
リジェクト

11
12
0
2
39
83.6
6.4
M
18 328
8
0
9
27
84.1
9.0
L
23
2 258
14
34
59
66.2
18.7
R
2
1
26 326
4
31
83.6
8.5
C
8
11
1 328
33
84.1
7.4
9
B:リラックス M:掛け算 L:手紙の文 R:回転する物体 C:数字を書く

テストデータに対する正答・誤答表
B
B
M
217
L
R
C
リジェクト

40
29
14
8
82
55.6
23.3
M
65 106
31
44
45
99
27.2
47.4
L
48
23 223
31
16
49
57.2
30.3
R
8
65
14 155
65
83
39.7
39.0
C
21
44
10
48 205
62
52.6
31.5
B:リラックス M:掛け算 L:手紙の文 R:回転する物体 C:数字を書く
Recurrent Neural Networks
Recurrent Neural Network
Hopfield Neural Network
･Symmetrical Connections
wij  wji
･No Self-loop
･One neuron randomly selected is updated.
･The energy function always decrease
or stay at the same value.
･Memory Capacity is about 15% of Neurons
Associative Memory (1)
4x4=16 Neuron RNN
6 Random Patterns {pi} are Stored
Connection Weights
M
W   pi pi
T
i 1
★Demonstration
Association from another random patterns
Traveling Salesman Problem
Active Neuron
Inactive Neuron
(5×5 Neurons)
Associative Memory (2)
(IJCNN’91, ICNN’94)
･Error Correction Learning with Hysteresis