3_モデルの記述
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| 3_モデルの記述 [2017/11/05] – 以前のリビジョンを復元 (2017/11/03) adash333 | 3_モデルの記述 [2018/10/07] (現在) – 外部編集 127.0.0.1 | ||
|---|---|---|---|
| 行 43: | 行 43: | ||
| < | < | ||
| - | #3 モデルの記述 | + | ''' |
| - | import chainer | + | 今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という |
| - | import chainer.links as L | + | ニューラルネットワークモデルを用いて機械学習で分類します。 |
| - | import | + | 層構造のイメージは、以下のリンクが参考になります。 |
| + | https:// | ||
| + | ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 | ||
| + | 28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 | ||
| + | 784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 | ||
| + | 入力層に入れます。入力層のunit数は784個となります。 | ||
| + | 中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 | ||
| + | 手書き数字の0から9まで10種類の画像を分類するため、 | ||
| + | 出力層のunit数(n_out)は、10個となります。 | ||
| + | ''' | ||
| + | |||
| + | class MLP(chainer.Chain): | ||
| - | class MyModel(Chain): | ||
| def __init__(self, | def __init__(self, | ||
| - | | + | super(MLP, self).__init__( |
| - | | + | |
| l1=L.Linear(None, | l1=L.Linear(None, | ||
| l2=L.Linear(n_mid_units, | l2=L.Linear(n_mid_units, | ||
| 行 57: | 行 66: | ||
| ) | ) | ||
| - | def __call__(self, | + | def __call__(self, |
| - | # 損失関数 | + | |
| - | return F.softmax_cross_entropy(self.fwd(x), | + | |
| - | + | ||
| - | def fwd(self, x): | + | |
| - | # データを受け取った際のforward計算を書く | + | |
| h1 = F.relu(self.l1(x)) | h1 = F.relu(self.l1(x)) | ||
| h2 = F.relu(self.l2(h1)) | h2 = F.relu(self.l2(h1)) | ||
| 行 69: | 行 73: | ||
| すると、以下のような画面になります。(ほとんど何もおこりません。) | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
| + | |||
| + | 図は作成中 | ||
| {{: | {{: | ||
3_モデルの記述.1509916106.txt.gz · 最終更新: 2018/10/07 (外部編集)
