3_モデルの記述
差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン最新のリビジョン両方とも次のリビジョン | ||
3_モデルの記述 [2017/11/03] – [(3)モデルの記述] adash333 | 3_モデルの記述 [2017/11/07] – [1. モデルの記述] adash333 | ||
---|---|---|---|
行 43: | 行 43: | ||
< | < | ||
- | #3 モデルの記述 | + | ''' |
- | import chainer | + | 今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という |
- | import chainer.links as L | + | ニューラルネットワークモデルを用いて機械学習で分類します。 |
- | import | + | 層構造のイメージは、以下のリンクが参考になります。 |
+ | https:// | ||
+ | ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 | ||
+ | 28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 | ||
+ | 784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 | ||
+ | 入力層に入れます。入力層のunit数は784個となります。 | ||
+ | 中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 | ||
+ | 手書き数字の0から9まで10種類の画像を分類するため、 | ||
+ | 出力層のunit数(n_out)は、10個となります。 | ||
+ | ''' | ||
+ | |||
+ | class MLP(chainer.Chain): | ||
- | class MyModel(Chain): | ||
def __init__(self, | def __init__(self, | ||
- | | + | super(MLP, self).__init__( |
- | | + | |
l1=L.Linear(None, | l1=L.Linear(None, | ||
l2=L.Linear(n_mid_units, | l2=L.Linear(n_mid_units, | ||
行 57: | 行 66: | ||
) | ) | ||
- | def __call__(self, | + | def __call__(self, |
- | # 損失関数 | + | |
- | return F.softmax_cross_entropy(self.fwd(x), | + | |
- | + | ||
- | def fwd(self, x): | + | |
- | # データを受け取った際のforward計算を書く | + | |
h1 = F.relu(self.l1(x)) | h1 = F.relu(self.l1(x)) | ||
h2 = F.relu(self.l2(h1)) | h2 = F.relu(self.l2(h1)) | ||
行 69: | 行 73: | ||
すると、以下のような画面になります。(ほとんど何もおこりません。) | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
+ | |||
+ | 図は作成中 | ||
{{: | {{: |
3_モデルの記述.txt · 最終更新: 2018/10/07 by 127.0.0.1