この文書の現在のバージョンと選択したバージョンの差分を表示します。
両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
3_モデルの記述 [2017/11/05] adash333 [0. 前回終了時の画面] |
3_モデルの記述 [2018/10/07] (現在) |
||
---|---|---|---|
ライン 38: | ライン 38: | ||
[[(2)データの準備・設定]]終了時の、以下のような状態から始めます。 | [[(2)データの準備・設定]]終了時の、以下のような状態から始めます。 | ||
- | {{:pasted:20171106-051215.png}} | + | {{:pasted:20171103-224810.png}} |
==== 1. モデルの記述 ==== | ==== 1. モデルの記述 ==== | ||
以下のコードを入力して、Shift + Enterを押します。 | 以下のコードを入力して、Shift + Enterを押します。 | ||
<code> | <code> | ||
- | #3 モデルの記述 | + | ''' |
- | import chainer | + | 今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という |
- | import chainer.links as L | + | ニューラルネットワークモデルを用いて機械学習で分類します。 |
- | import chainer.functions as F | + | 層構造のイメージは、以下のリンクが参考になります。 |
+ | https://qiita.com/kenmatsu4/items/7b8d24d4c5144a686412 | ||
+ | ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 | ||
+ | 28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 | ||
+ | 784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 | ||
+ | 入力層に入れます。入力層のunit数は784個となります。 | ||
+ | 中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 | ||
+ | 手書き数字の0から9まで10種類の画像を分類するため、 | ||
+ | 出力層のunit数(n_out)は、10個となります。 | ||
+ | ''' | ||
+ | |||
+ | class MLP(chainer.Chain): | ||
- | class MyModel(Chain): | ||
def __init__(self, n_mid_units=100, n_out=10): | def __init__(self, n_mid_units=100, n_out=10): | ||
- | # パラメータを持つ層の登録 | + | super(MLP, self).__init__( |
- | super(MyModel, self).__init__( | + | |
l1=L.Linear(None, n_mid_units), | l1=L.Linear(None, n_mid_units), | ||
l2=L.Linear(n_mid_units, n_mid_units), | l2=L.Linear(n_mid_units, n_mid_units), | ||
ライン 57: | ライン 66: | ||
) | ) | ||
- | def __call__(self, x,t): | + | def __call__(self, x): |
- | # 損失関数 | + | |
- | return F.softmax_cross_entropy(self.fwd(x),t) | + | |
- | + | ||
- | def fwd(self, x): | + | |
- | # データを受け取った際のforward計算を書く | + | |
h1 = F.relu(self.l1(x)) | h1 = F.relu(self.l1(x)) | ||
h2 = F.relu(self.l2(h1)) | h2 = F.relu(self.l2(h1)) | ||
ライン 69: | ライン 73: | ||
すると、以下のような画面になります。(ほとんど何もおこりません。) | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
+ | |||
+ | 図は作成中 | ||
{{:pasted:20171020-001546.png}} | {{:pasted:20171020-001546.png}} |