3_モデルの記述
差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン次のリビジョン両方とも次のリビジョン | ||
3_モデルの記述 [2017/10/19] – [(3)モデルの記述] adash333 | 3_モデルの記述 [2017/11/05] – [0. 前回終了時の画面] adash333 | ||
---|---|---|---|
行 1: | 行 1: | ||
===== (3)モデルの記述 ===== | ===== (3)モデルの記述 ===== | ||
- | <ChainerでMNIST目次> | + | <wrap hi> |
- | [[Chainer2プログラミングの全体図|(0)Chainer2プログラミングの全体図]]\\ | + | [[Chainer2プログラミングの全体図]] |
- | [[(1)Chainer2を使用するためのimport文]]\\ | + | -[[(1)Chainer2を使用するためのimport文]] |
- | [[(2)データの準備・設定]]\\ | + | -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] |
- | (3)モデルの記述 | + | -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] < |
- | [[(4)モデルと最適化アルゴリズムの設定]]\\ | + | -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] |
- | [[(5)学習(Trainerを利用しない場合)]]\\ | + | -[[(5)学習と結果の出力(Chainer)]] |
- | [[(6)結果の出力]]\\ | + | -[[(6)結果の出力|(6)学習結果のパラメータの保存(Chainer)]] |
+ | -[[(7)推測|(7)推測(Chainer)]] | ||
< | < | ||
行 14: | 行 15: | ||
class MyModel(Chain): | class MyModel(Chain): | ||
def __init__(self): | def __init__(self): | ||
- | | + | super(MyModel, |
# パラメータを含む関数の宣言 | # パラメータを含む関数の宣言 | ||
) | ) | ||
- | | ||
def __call__(self, | def __call__(self, | ||
- | # 損失関数 | + | # モデルを記載 |
- | + | ||
- | def fwd(self, x): | + | |
- | # 順伝播? ここにもモデルを記載、予測するときにこの関数を用いる | + | |
</ | </ | ||
行 41: | 行 38: | ||
[[(2)データの準備・設定]]終了時の、以下のような状態から始めます。 | [[(2)データの準備・設定]]終了時の、以下のような状態から始めます。 | ||
- | {{:pasted:20171019-231608.png}} | + | {{:pasted:20171106-051215.png}} |
- | + | ==== 1. モデルの記述 | |
- | ==== 1. データセットの準備 | + | |
以下のコードを入力して、Shift + Enterを押します。 | 以下のコードを入力して、Shift + Enterを押します。 | ||
< | < | ||
+ | #3 モデルの記述 | ||
import chainer | import chainer | ||
import chainer.links as L | import chainer.links as L | ||
import chainer.functions as F | import chainer.functions as F | ||
- | class MLP(chainer.Chain): | + | class MyModel(Chain): |
def __init__(self, | def __init__(self, | ||
# パラメータを持つ層の登録 | # パラメータを持つ層の登録 | ||
- | super(MLP, self).__init__( | + | super(MyModel, self).__init__( |
l1=L.Linear(None, | l1=L.Linear(None, | ||
l2=L.Linear(n_mid_units, | l2=L.Linear(n_mid_units, | ||
行 61: | 行 57: | ||
) | ) | ||
- | def __call__(self, | + | def __call__(self, |
- | # データを受け取った際のforward計算を書く | + | # 損失関数 |
+ | return F.softmax_cross_entropy(self.fwd(x), | ||
+ | |||
+ | def fwd(self, x): | ||
+ | # | ||
h1 = F.relu(self.l1(x)) | h1 = F.relu(self.l1(x)) | ||
h2 = F.relu(self.l2(h1)) | h2 = F.relu(self.l2(h1)) | ||
return self.l3(h2) | return self.l3(h2) | ||
- | |||
- | model = MLP() | ||
</ | </ | ||
すると、以下のような画面になります。(ほとんど何もおこりません。) | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
- | {{:pasted:20171019-231849.png}} | + | {{:pasted:20171020-001546.png}} |
+ | Chainerで、Multiple layer Perceptoronのモデルを記述する作業は上記でおしまいです。 | ||
- | ===== 見出し ===== | + | 次は、[[(4)モデルと最適化アルゴリズムの設定]]に進んでください。 |
- | a | + | |
+ | |||
+ | ===== 参考文献 ===== | ||
+ | Chainer: ビギナー向けチュートリアル Vol.1 | ||
+ | | ||
+ | https:// | ||
+ | |||
+ | Chainer2に関しては、以下の本がかなりおすすめです。 | ||
+ | |||
+ | < | ||
+ | <iframe style=" | ||
+ | </ | ||
+ | |||
+ | Deep Learningについての理論については、以下の本が超お勧めです。 | ||
+ | |||
+ | < | ||
+ | <iframe style=" | ||
+ | </ | ||
===== リンク ===== | ===== リンク ===== | ||
- | <ChainerでMNIST目次> | + | |
- | [[Chainer2プログラミングの全体図|(0)Chainer2プログラミングの全体図]]\\ | + | 次 [[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] |
- | [[(1)Chainer2を使用するためのimport文]]\\ | + | |
- | [[(2)データの準備・設定]]\\ | + | 前 [[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] |
- | (3)モデルの記述 | + | |
- | [[(4)モデルと最適化アルゴリズムの設定]]\\ | + | |
- | [[(5)学習(Trainerを利用しない場合)]]\\ | + | <wrap hi> |
- | [[(6)結果の出力]]\\ | + | [[Chainer2プログラミングの全体図]] |
+ | -[[(1)Chainer2を使用するためのimport文]] | ||
+ | -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] | ||
+ | -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] < | ||
+ | -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] | ||
+ | -[[(5)学習と結果の出力(Chainer)]] | ||
+ | -[[(6)結果の出力|(6)学習結果のパラメータの保存(Chainer)]] | ||
+ | -[[(7)推測|(7)推測(Chainer)]] |
3_モデルの記述.txt · 最終更新: 2018/10/07 by 127.0.0.1