この文書の現在のバージョンと選択したバージョンの差分を表示します。
両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
3_モデルの記述 [2017/11/03] adash333 [リンク] |
3_モデルの記述 [2018/10/07] (現在) |
||
---|---|---|---|
ライン 5: | ライン 5: | ||
-[[(1)Chainer2を使用するためのimport文]] | -[[(1)Chainer2を使用するためのimport文]] | ||
-[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] | -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] | ||
- | -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] | + | -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] <wrap hi><= いまココ</wrap> |
-[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] | -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] | ||
-[[(5)学習と結果の出力(Chainer)]] | -[[(5)学習と結果の出力(Chainer)]] | ||
ライン 15: | ライン 15: | ||
class MyModel(Chain): | class MyModel(Chain): | ||
def __init__(self): | def __init__(self): | ||
- | super(MyModel,self).__init__( | + | super(MyModel,self).__init__( |
# パラメータを含む関数の宣言 | # パラメータを含む関数の宣言 | ||
) | ) | ||
- | | ||
def __call__(self, ...): | def __call__(self, ...): | ||
- | # 損失関数 | + | # モデルを記載 |
- | + | ||
- | def fwd(self, x): | + | |
- | # 順伝播? ここにもモデルを記載、予測するときにこの関数を用いる | + | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | 作成中 | + | |
</code> | </code> | ||
ライン 52: | ライン 43: | ||
<code> | <code> | ||
- | #3 モデルの記述 | + | ''' |
- | import chainer | + | 今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という |
- | import chainer.links as L | + | ニューラルネットワークモデルを用いて機械学習で分類します。 |
- | import chainer.functions as F | + | 層構造のイメージは、以下のリンクが参考になります。 |
+ | https://qiita.com/kenmatsu4/items/7b8d24d4c5144a686412 | ||
+ | ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 | ||
+ | 28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 | ||
+ | 784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 | ||
+ | 入力層に入れます。入力層のunit数は784個となります。 | ||
+ | 中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 | ||
+ | 手書き数字の0から9まで10種類の画像を分類するため、 | ||
+ | 出力層のunit数(n_out)は、10個となります。 | ||
+ | ''' | ||
+ | |||
+ | class MLP(chainer.Chain): | ||
- | class MyModel(Chain): | ||
def __init__(self, n_mid_units=100, n_out=10): | def __init__(self, n_mid_units=100, n_out=10): | ||
- | # パラメータを持つ層の登録 | + | super(MLP, self).__init__( |
- | super(MyModel, self).__init__( | + | |
l1=L.Linear(None, n_mid_units), | l1=L.Linear(None, n_mid_units), | ||
l2=L.Linear(n_mid_units, n_mid_units), | l2=L.Linear(n_mid_units, n_mid_units), | ||
ライン 66: | ライン 66: | ||
) | ) | ||
- | def __call__(self, x,t): | + | def __call__(self, x): |
- | # 損失関数 | + | |
- | return F.softmax_cross_entropy(self.fwd(x),t) | + | |
- | + | ||
- | def fwd(self, x): | + | |
- | # データを受け取った際のforward計算を書く | + | |
h1 = F.relu(self.l1(x)) | h1 = F.relu(self.l1(x)) | ||
h2 = F.relu(self.l2(h1)) | h2 = F.relu(self.l2(h1)) | ||
ライン 78: | ライン 73: | ||
すると、以下のような画面になります。(ほとんど何もおこりません。) | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
+ | |||
+ | 図は作成中 | ||
{{:pasted:20171020-001546.png}} | {{:pasted:20171020-001546.png}} |