4_モデル学習_keras

差分

この文書の現在のバージョンと選択したバージョンの差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
4_モデル学習_keras [2017/11/09]
adash333 [参考文献]
4_モデル学習_keras [2018/10/07] (現在)
ライン 19: ライン 19:
 </​code>​ </​code>​
  
-作成中 
  
 ===== 開発環境 ===== ===== 開発環境 =====
ライン 39: ライン 38:
  
 {{:​pasted:​20171106-063759.png}} {{:​pasted:​20171106-063759.png}}
-==== 1. モデルの設定 ​====+==== 1. モデルの学習 ​====
 以下のコードを入力して、Shift + Enterを押します。 以下のコードを入力して、Shift + Enterを押します。
  
ライン 58: ライン 57:
  
  
-解説しています。+model.fit()関数より、モデルの学習を実行しています。
  
 +引数については、KerasのDocumentationそのままとなりますが、以下に記載します。
  
-KerasでのModel学習の手順は上記でおしまいです。+----
  
-<wrap hi> +x: 入力データ,Numpy 配列,るいは Numpy 配列のリスト (モデルに複数の入力がある場合)\\ 
-初めての場合は、次は、とりえず、</​wrap>​[[(4)モデル学習(Keras)]]<​wrap hi>進んでください。 +y: ラベル,Numpy 配列.
-</​wrap>​+
  
-===== kerasで損失関数(=目的関数)の利用方法 =====+batch_size: 整.設定したサンプル数ごとに勾配の更新を行います。今回は、<​wrap hi>[[(3)モデル設定(Keras)]]</​wrap>​のところで、batch_size ​128と設定していましたので、128が用いられています。 
 + 
 +epochs: 整で,モデルを訓練するエポック数。今回は、<​wrap hi>​[[(3)モデル設定(Keras)]]</​wrap>​ところで、epochs ​3と設定していましたので、3回学習が行われています。 
 + 
 +verbose: 0とすると標準出力にログを出力しません. 1の場合はログをプログレスバーで標準出力,2 の場合はエポックごとに1行のログを出力します 
 + 
 +validation_data=(x_test, y_test): ホールドアウト検証用データとして使うデータのタプル (x_val, y_val) か (x_val, y_val, val_sample_weights)。設定すると validation_split を無視します。 
 + 
 +---- 
 + 
 + 
 +KerasでのModel学習の手順は上記でおしまいです。 
 + 
 +初めての方は、次は、<​wrap hi>​[[(5)結果の出力(Keras)]]</​wrap>​に進んでください。
  
-作成中 
  
 (参考) (参考)
-損失関数の利用方法ついて\\ +Keras チュートリアル\\ 
-https://keras.io/ja/losses/\\ +sasayabaku 
-https://​keras.io/​ja/​objectives/+2017年08月16日更新\\ 
 +https://qiita.com/sasayabaku/items/64a01363bcd5c44feb0b 
 + 
 + 
 +===== kerasのSequentialモデルのfitメソッドについて ===== 
 + 
 +https://​keras.io/​ja/​models/sequential/​\\ 
 +{{:​pasted:​20171110-035359.png}} 
 + 
 +fit()関数は、固定のエポック数でモデルを訓練します。 
 + 
 +戻り値は、History オブジェクト。History.history 属性は、実行に成功したエポックにおける訓練の損失値と評価関数値の記録と,(適用可能ならば)検証における損失値と評価関数値も記録しています。 
 + 
 +model.fit()の返り値を出力を変数に格納すると学習過程のパラメータの推移をプロットできます。 
 + 
 +上記の例では、Historyに格納しているので、以下のようなコードで、lossやaccuracyのグラフを出力することができます。 
 + 
 +<​code>​ 
 +import matplotlib.pyplot as plt 
 +%matplotlib inline 
 +loss = history.history['​loss'​] 
 +val_loss = history.history['​val_loss'​] 
 + 
 +# lossのグラフ 
 +plt.plot(range(3),​ loss, marker='​.',​ label='​loss'​) 
 +plt.plot(range(3),​ val_loss, marker='​.',​ label='​val_loss'​) 
 +plt.legend(loc='​best',​ fontsize=10) 
 +plt.grid() 
 +plt.xlabel('​epoch'​) 
 +plt.ylabel('​loss'​) 
 +plt.show() 
 +</​code>​ 
 + 
 +{{:​pasted:​20171110-040150.png}} 
 + 
 +<​code>​ 
 +import matplotlib.pyplot as plt 
 +%matplotlib inline 
 +acc = history.history['​acc'​] 
 +val_acc = history.history['​val_acc'​] 
 + 
 +# accuracyのグラフ 
 +plt.plot(range(3),​ acc, marker='​.',​ label='​acc'​) 
 +plt.plot(range(3),​ val_acc, marker='​.',​ label='​val_acc'​) 
 +plt.legend(loc='​best',​ fontsize=10) 
 +plt.grid() 
 +plt.xlabel('​epoch'​) 
 +plt.ylabel('​acc'​) 
 +plt.show() 
 +</​code>​ 
 + 
 +{{:​pasted:​20171110-040318.png}} 
  
  
-機械学習における誤差関数、損失関数、etcについて\\ 
-http://​otasuke.goo-net.com/​qa8944219.html 
  
 ===== Optimizerについて ===== ===== Optimizerについて =====

4_モデル学習_keras.1510252715.txt.gz · 最終更新: 2018/10/07 (外部編集)