この文書の現在のバージョンと選択したバージョンの差分を表示します。
| 両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
| 
                    3_モデルの記述 [2017/11/05] adash333 以前のリビジョンを復元 (2017/11/03)  | 
                
                    3_モデルの記述 [2018/10/07] (現在) | 
            ||
|---|---|---|---|
| ライン 43: | ライン 43: | ||
| <code> | <code> | ||
| - | #3 モデルの記述 | + | ''' | 
| - | import chainer | + | 今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という | 
| - | import chainer.links as L | + | ニューラルネットワークモデルを用いて機械学習で分類します。 | 
| - | import chainer.functions as F | + | 層構造のイメージは、以下のリンクが参考になります。 | 
| + | https://qiita.com/kenmatsu4/items/7b8d24d4c5144a686412 | ||
| + | ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 | ||
| + | 28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 | ||
| + | 784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 | ||
| + | 入力層に入れます。入力層のunit数は784個となります。 | ||
| + | 中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 | ||
| + | 手書き数字の0から9まで10種類の画像を分類するため、 | ||
| + | 出力層のunit数(n_out)は、10個となります。 | ||
| + | ''' | ||
| + | |||
| + | class MLP(chainer.Chain): | ||
| - | class MyModel(Chain): | ||
| def __init__(self, n_mid_units=100, n_out=10): | def __init__(self, n_mid_units=100, n_out=10): | ||
| - | # パラメータを持つ層の登録 | + | super(MLP, self).__init__( | 
| - | super(MyModel, self).__init__( | + | |
| l1=L.Linear(None, n_mid_units), | l1=L.Linear(None, n_mid_units), | ||
| l2=L.Linear(n_mid_units, n_mid_units), | l2=L.Linear(n_mid_units, n_mid_units), | ||
| ライン 57: | ライン 66: | ||
| ) | ) | ||
| - | def __call__(self, x,t): | + | def __call__(self, x): | 
| - | # 損失関数 | + | |
| - | return F.softmax_cross_entropy(self.fwd(x),t) | + | |
| - | + | ||
| - | def fwd(self, x): | + | |
| - | # データを受け取った際のforward計算を書く | + | |
| h1 = F.relu(self.l1(x)) | h1 = F.relu(self.l1(x)) | ||
| h2 = F.relu(self.l2(h1)) | h2 = F.relu(self.l2(h1)) | ||
| ライン 69: | ライン 73: | ||
| すると、以下のような画面になります。(ほとんど何もおこりません。) | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
| + | |||
| + | 図は作成中 | ||
| {{:pasted:20171020-001546.png}} | {{:pasted:20171020-001546.png}} | ||