3_モデルの記述

差分

この文書の現在のバージョンと選択したバージョンの差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
3_モデルの記述 [2017/10/19]
adash333 [見出し]
3_モデルの記述 [2018/10/07] (現在)
ライン 1: ライン 1:
 ===== (3)モデルの記述 ===== ===== (3)モデルの記述 =====
  
-<ChainerでMNIST目次>​\\ +<wrap hi>​Chainer2でMNIST目次</wrap>\\ 
-[[Chainer2プログラミングの全体図|(0)Chainer2プログラミングの全体図]]\\ +[[Chainer2プログラミングの全体図]] 
-[[(1)Chainer2を使用するためのimport文]]\\ +  -[[(1)Chainer2を使用するためのimport文]] 
-[[(2)データの準備・設定]]\\ +  -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] 
-(3)モデルの記述 ​ ←いまここ\\ +  -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] <​wrap hi><​= ​いまココ</​wrap>​ 
-[[(4)モデルと最適化アルゴリズムの設定]]\\ +  -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] 
-[[(5)学習(Trainerを利用しない場合)]]\\ +  -[[(5)学習と結果の出力(Chainer)]] 
-[[(6)結果の出力]]\\+  -[[(6)結果の出力|(6)学習結果のパラメータの保存(Chainer)]] 
 +  -[[(7)推測|(7)推測(Chainer)]]
  
 <​code>​ <​code>​
ライン 14: ライン 15:
 class MyModel(Chain):​ class MyModel(Chain):​
     def __init__(self):​     def __init__(self):​
-        ​super(MyModel,​self).__init__(+       super(MyModel,​self).__init__(
             # パラメータを含む関数の宣言             # パラメータを含む関数の宣言
         )         )
-    ​ 
     def __call__(self,​ ...):     def __call__(self,​ ...):
-    # 損失関数 +    # モデルを記載
-     +
-    def fwd(self, x): +
-    # 順伝播? ここにもモデルを記載、予測するときにこの関数を用いる+
 </​code>​ </​code>​
  
ライン 41: ライン 38:
 [[(2)データの準備・設定]]終了時の、以下のような状態から始めます。 [[(2)データの準備・設定]]終了時の、以下のような状態から始めます。
  
-{{:pasted:20171019-231608.png}} +{{:pasted:20171103-224810.png}} 
- +==== 1. 記述 ​====
-==== 1. データセット準備 ​====+
 以下のコードを入力して、Shift + Enterを押します。 以下のコードを入力して、Shift + Enterを押します。
  
 <​code>​ <​code>​
-import chainer +'''​ 
-import chainer.links as L +今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という 
-import chainer.functions as F+ニューラルネットワークモデルを用いて機械学習で分類します。 
 +層構造のイメージは、以下のリンクが参考になります。 
 +https://​qiita.com/​kenmatsu4/​items/​7b8d24d4c5144a686412 
 +ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 
 +28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 
 +784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 
 +入力層に入れます。入力層のunit数は784個となります。 
 +中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 
 +手書き数字の0から9まで10種類の画像を分類するため、 
 +出力層のunit数(n_out)は、10個となります。 
 +'''​
  
 class MLP(chainer.Chain):​ class MLP(chainer.Chain):​
  
     def __init__(self,​ n_mid_units=100,​ n_out=10):     def __init__(self,​ n_mid_units=100,​ n_out=10):
-        # パラメータを持つ層の登録 
         super(MLP, self).__init__(         super(MLP, self).__init__(
             l1=L.Linear(None,​ n_mid_units),​             l1=L.Linear(None,​ n_mid_units),​
ライン 62: ライン 67:
  
     def __call__(self,​ x):     def __call__(self,​ x):
-        # データを受け取った際のforward計算を書く 
         h1 = F.relu(self.l1(x))         h1 = F.relu(self.l1(x))
         h2 = F.relu(self.l2(h1))         h2 = F.relu(self.l2(h1))
         return self.l3(h2)         return self.l3(h2)
- 
-model = MLP() 
 </​code>​ </​code>​
  
 すると、以下のような画面になります。(ほとんど何もおこりません。) すると、以下のような画面になります。(ほとんど何もおこりません。)
  
-{{:pasted:20171019-231849.png}}+図は作成中 
 + 
 +{{:pasted:20171020-001546.png}}
  
 Chainerで、Multiple layer Perceptoronのモデルを記述する作業は上記でおしまいです。 Chainerで、Multiple layer Perceptoronのモデルを記述する作業は上記でおしまいです。
ライン 85: ライン 89:
  
 Chainer2に関しては、以下の本がかなりおすすめです。 Chainer2に関しては、以下の本がかなりおすすめです。
 +
 <​html>​ <​html>​
 <iframe style="​width:​120px;​height:​240px;"​ marginwidth="​0"​ marginheight="​0"​ scrolling="​no"​ frameborder="​0"​ src="//​rcm-fe.amazon-adsystem.com/​e/​cm?​lt1=_blank&​bc1=000000&​IS2=1&​bg1=FFFFFF&​fc1=000000&​lc1=0000FF&​t=twosquirrel-22&​o=9&​p=8&​l=as4&​m=amazon&​f=ifr&​ref=as_ss_li_til&​asins=B01NBMKH21&​linkId=a7a35903a4c55f62d8aa012c3d0277d8"></​iframe>​ <iframe style="​width:​120px;​height:​240px;"​ marginwidth="​0"​ marginheight="​0"​ scrolling="​no"​ frameborder="​0"​ src="//​rcm-fe.amazon-adsystem.com/​e/​cm?​lt1=_blank&​bc1=000000&​IS2=1&​bg1=FFFFFF&​fc1=000000&​lc1=0000FF&​t=twosquirrel-22&​o=9&​p=8&​l=as4&​m=amazon&​f=ifr&​ref=as_ss_li_til&​asins=B01NBMKH21&​linkId=a7a35903a4c55f62d8aa012c3d0277d8"></​iframe>​
ライン 90: ライン 95:
  
 Deep Learningについての理論については、以下の本が超お勧めです。 Deep Learningについての理論については、以下の本が超お勧めです。
 +
 <​html>​ <​html>​
 <iframe style="​width:​120px;​height:​240px;"​ marginwidth="​0"​ marginheight="​0"​ scrolling="​no"​ frameborder="​0"​ src="//​rcm-fe.amazon-adsystem.com/​e/​cm?​lt1=_blank&​bc1=000000&​IS2=1&​bg1=FFFFFF&​fc1=000000&​lc1=0000FF&​t=twosquirrel-22&​o=9&​p=8&​l=as4&​m=amazon&​f=ifr&​ref=as_ss_li_til&​asins=4873117585&​linkId=603bea27ea1777eb662830c5609200a1"></​iframe>​ <iframe style="​width:​120px;​height:​240px;"​ marginwidth="​0"​ marginheight="​0"​ scrolling="​no"​ frameborder="​0"​ src="//​rcm-fe.amazon-adsystem.com/​e/​cm?​lt1=_blank&​bc1=000000&​IS2=1&​bg1=FFFFFF&​fc1=000000&​lc1=0000FF&​t=twosquirrel-22&​o=9&​p=8&​l=as4&​m=amazon&​f=ifr&​ref=as_ss_li_til&​asins=4873117585&​linkId=603bea27ea1777eb662830c5609200a1"></​iframe>​
 </​html>​ </​html>​
 ===== リンク ===== ===== リンク =====
-<ChainerでMNIST目次>​\\ + 
-[[Chainer2プログラミングの全体図|(0)Chainer2プログラミングの全体図]]\\ +次 [[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] 
-[[(1)Chainer2を使用するためのimport文]]\\ + 
-[[(2)データの準備・設定]]\\ +前 [[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] 
-(3)モデルの記述 ​ ←いまここ\\ + 
-[[(4)モデルと最適化アルゴリズムの設定]]\\ + 
-[[(5)学習(Trainerを利用しない場合)]]\\ +<wrap hi>​Chainer2でMNIST目次</wrap>\\ 
-[[(6)結果の出力]]\\+[[Chainer2プログラミングの全体図]] 
 +  -[[(1)Chainer2を使用するためのimport文]] 
 +  -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] 
 +  -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] <​wrap hi><​= ​いまココ</​wrap>​ 
 +  -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] 
 +  -[[(5)学習と結果の出力(Chainer)]] 
 +  -[[(6)結果の出力|(6)学習結果のパラメータの保存(Chainer)]] 
 +  -[[(7)推測|(7)推測(Chainer)]]

3_モデルの記述.1508422947.txt.gz · 最終更新: 2018/10/07 (外部編集)