3_モデルの記述

差分

この文書の現在のバージョンと選択したバージョンの差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
3_モデルの記述 [2017/11/03]
adash333 [リンク]
3_モデルの記述 [2018/10/07] (現在)
ライン 5: ライン 5:
   -[[(1)Chainer2を使用するためのimport文]]   -[[(1)Chainer2を使用するためのimport文]]
   -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]]   -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]]
-  -[[(3)モデルの記述|(3)モデルの記述(Chainer)]]+  -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] <wrap hi><= いまココ</​wrap>​
   -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]]   -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]]
   -[[(5)学習と結果の出力(Chainer)]]   -[[(5)学習と結果の出力(Chainer)]]
ライン 15: ライン 15:
 class MyModel(Chain):​ class MyModel(Chain):​
     def __init__(self):​     def __init__(self):​
-        ​super(MyModel,​self).__init__(+       super(MyModel,​self).__init__(
             # パラメータを含む関数の宣言             # パラメータを含む関数の宣言
         )         )
-    ​ 
     def __call__(self,​ ...):     def __call__(self,​ ...):
-    # 損失関数 +    # モデルを記載
-     +
-    def fwd(self, x): +
-    # 順伝播? ここにもモデルを記載、予測するときにこの関数を用いる +
-     +
-     +
-     +
-     +
-    作成中+
 </​code>​ </​code>​
  
ライン 52: ライン 43:
  
 <​code>​ <​code>​
-#3 モデルの記述 +'''​ 
-import chainer +今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という 
-import chainer.links as L +ニューラルネットワークモデルを用いて機械学習で分類します。 
-import ​chainer.functions as F+層構造イメージは、以下のリンクが参考になります。 
 +https://​qiita.com/​kenmatsu4/​items/​7b8d24d4c5144a686412 
 +ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 
 +28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 
 +784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 
 +入力層に入れます。入力層のunit数は784個となります。 
 +中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 
 +手書き数字の0から9まで10種類の画像を分類するため、 
 +出力層のunit数(n_out)は、10個となります。 
 +'''​ 
 + 
 +class MLP(chainer.Chain):
  
-class MyModel(Chain):​ 
     def __init__(self,​ n_mid_units=100,​ n_out=10):     def __init__(self,​ n_mid_units=100,​ n_out=10):
-        ​# パラメータを持つ層の登録 +        super(MLP, self).__init__(
-        ​super(MyModel, self).__init__(+
             l1=L.Linear(None,​ n_mid_units),​             l1=L.Linear(None,​ n_mid_units),​
             l2=L.Linear(n_mid_units,​ n_mid_units),​             l2=L.Linear(n_mid_units,​ n_mid_units),​
ライン 66: ライン 66:
         )         )
  
-    def __call__(self,​ x,t): +    def __call__(self,​ x):
-        # 損失関数 +
-        return F.softmax_cross_entropy(self.fwd(x),​t) +
- +
-    def fwd(self, x): +
-        #  データを受け取った際のforward計算を書く+
         h1 = F.relu(self.l1(x))         h1 = F.relu(self.l1(x))
         h2 = F.relu(self.l2(h1))         h2 = F.relu(self.l2(h1))
ライン 78: ライン 73:
  
 すると、以下のような画面になります。(ほとんど何もおこりません。) すると、以下のような画面になります。(ほとんど何もおこりません。)
 +
 +図は作成中
  
 {{:​pasted:​20171020-001546.png}} {{:​pasted:​20171020-001546.png}}

3_モデルの記述.1509717074.txt.gz · 最終更新: 2018/10/07 (外部編集)