3_モデルの記述
差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
3_モデルの記述 [2017/10/19] – [(3)モデルの記述] adash333 | 3_モデルの記述 [2018/10/07] (現在) – 外部編集 127.0.0.1 | ||
---|---|---|---|
行 1: | 行 1: | ||
===== (3)モデルの記述 ===== | ===== (3)モデルの記述 ===== | ||
- | <ChainerでMNIST目次> | + | <wrap hi> |
- | [[Chainer2プログラミングの全体図|(0)Chainer2プログラミングの全体図]]\\ | + | [[Chainer2プログラミングの全体図]] |
- | [[(1)Chainer2を使用するためのimport文]]\\ | + | -[[(1)Chainer2を使用するためのimport文]] |
- | [[(2)データの準備・設定]]\\ | + | -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] |
- | (3)モデルの記述 | + | -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] < |
- | [[(4)モデルと最適化アルゴリズムの設定]]\\ | + | -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] |
- | [[(5)学習(Trainerを利用しない場合)]]\\ | + | -[[(5)学習と結果の出力(Chainer)]] |
- | [[(6)結果の出力]]\\ | + | -[[(6)結果の出力|(6)学習結果のパラメータの保存(Chainer)]] |
+ | -[[(7)推測|(7)推測(Chainer)]] | ||
< | < | ||
行 14: | 行 15: | ||
class MyModel(Chain): | class MyModel(Chain): | ||
def __init__(self): | def __init__(self): | ||
- | | + | super(MyModel, |
# パラメータを含む関数の宣言 | # パラメータを含む関数の宣言 | ||
) | ) | ||
- | | ||
def __call__(self, | def __call__(self, | ||
- | # 損失関数 | + | # モデルを記載 |
- | + | ||
- | def fwd(self, x): | + | |
- | # 順伝播? ここにもモデルを記載、予測するときにこの関数を用いる | + | |
</ | </ | ||
- | ===== 見出し ===== | ||
- | a | ||
+ | ===== 開発環境 ===== | ||
+ | Windows 8.1\\ | ||
+ | Anaconda \\ | ||
+ | Python 3.5\\ | ||
+ | Chainer 2.0\\ | ||
+ | |||
+ | Chainerのインストール方法は[[Chainer2.0をWindowsにインストール]]をご覧下さい。 | ||
+ | |||
+ | このページは、[[(2)データの準備・設定]]の続きであり、今回は、MNISTのモデルの記述を行っていきます。 | ||
+ | |||
+ | ===== 手順 ===== | ||
+ | |||
+ | ==== 0. 前回終了時の画面 ==== | ||
+ | [[(2)データの準備・設定]]終了時の、以下のような状態から始めます。 | ||
+ | |||
+ | {{: | ||
+ | ==== 1. モデルの記述 ==== | ||
+ | 以下のコードを入力して、Shift + Enterを押します。 | ||
+ | |||
+ | < | ||
+ | ''' | ||
+ | 今回は、手書き数字MNIST画像を、multiple layer perceptron(多層パーセプトロン)という | ||
+ | ニューラルネットワークモデルを用いて機械学習で分類します。 | ||
+ | 層構造のイメージは、以下のリンクが参考になります。 | ||
+ | https:// | ||
+ | ネットワークは3層で、入力層、隠れ層、出力層の3層とします。 | ||
+ | 28x28のグレースケール画像を、0から255までの値をとる各ピクセルの値を、 | ||
+ | 784個、横に並んだ数字の配列に変換して(、さらに255で割って)、 | ||
+ | 入力層に入れます。入力層のunit数は784個となります。 | ||
+ | 中間層のunit数(n_mid_units)は、今回は、100個に設定しています。 | ||
+ | 手書き数字の0から9まで10種類の画像を分類するため、 | ||
+ | 出力層のunit数(n_out)は、10個となります。 | ||
+ | ''' | ||
+ | |||
+ | class MLP(chainer.Chain): | ||
+ | |||
+ | def __init__(self, | ||
+ | super(MLP, self).__init__( | ||
+ | l1=L.Linear(None, | ||
+ | l2=L.Linear(n_mid_units, | ||
+ | l3=L.Linear(n_mid_units, | ||
+ | ) | ||
+ | |||
+ | def __call__(self, | ||
+ | h1 = F.relu(self.l1(x)) | ||
+ | h2 = F.relu(self.l2(h1)) | ||
+ | return self.l3(h2) | ||
+ | </ | ||
+ | |||
+ | すると、以下のような画面になります。(ほとんど何もおこりません。) | ||
+ | |||
+ | 図は作成中 | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Chainerで、Multiple layer Perceptoronのモデルを記述する作業は上記でおしまいです。 | ||
+ | |||
+ | 次は、[[(4)モデルと最適化アルゴリズムの設定]]に進んでください。 | ||
+ | |||
+ | |||
+ | ===== 参考文献 ===== | ||
+ | Chainer: ビギナー向けチュートリアル Vol.1 | ||
+ | | ||
+ | https:// | ||
+ | |||
+ | Chainer2に関しては、以下の本がかなりおすすめです。 | ||
+ | |||
+ | < | ||
+ | <iframe style=" | ||
+ | </ | ||
+ | |||
+ | Deep Learningについての理論については、以下の本が超お勧めです。 | ||
+ | |||
+ | < | ||
+ | <iframe style=" | ||
+ | </ | ||
===== リンク ===== | ===== リンク ===== | ||
- | <ChainerでMNIST目次> | + | |
- | [[Chainer2プログラミングの全体図|(0)Chainer2プログラミングの全体図]]\\ | + | 次 [[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] |
- | [[(1)Chainer2を使用するためのimport文]]\\ | + | |
- | [[(2)データの準備・設定]]\\ | + | 前 [[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] |
- | (3)モデルの記述 | + | |
- | [[(4)モデルと最適化アルゴリズムの設定]]\\ | + | |
- | [[(5)学習(Trainerを利用しない場合)]]\\ | + | <wrap hi> |
- | [[(6)結果の出力]]\\ | + | [[Chainer2プログラミングの全体図]] |
+ | -[[(1)Chainer2を使用するためのimport文]] | ||
+ | -[[(2)データの準備・設定|(2)データの準備・設定(Chainer)]] | ||
+ | -[[(3)モデルの記述|(3)モデルの記述(Chainer)]] < | ||
+ | -[[(4)モデルと最適化アルゴリズムの設定|(4)モデルと最適化アルゴリズムの設定(Chainer)]] | ||
+ | -[[(5)学習と結果の出力(Chainer)]] | ||
+ | -[[(6)結果の出力|(6)学習結果のパラメータの保存(Chainer)]] | ||
+ | -[[(7)推測|(7)推測(Chainer)]] |
3_モデルの記述.1508422458.txt.gz · 最終更新: 2018/10/07 (外部編集)