nnc_sony_で回帰分析
差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
nnc_sony_で回帰分析 [2017/08/20] – [NNC(Neural Network Console)(SONY)で回帰分析] adash333 | nnc_sony_で回帰分析 [2019/10/20] (現在) – [NNC(Neural Network Console)(SONY)で回帰分析] adash333 | ||
---|---|---|---|
行 1: | 行 1: | ||
===== NNC(Neural Network Console)(SONY)で回帰分析 ===== | ===== NNC(Neural Network Console)(SONY)で回帰分析 ===== | ||
+ | ---// 2019/10/20 更新// | ||
+ | |||
個人的に、画像から、数値を出したいとき、どのようにすればよいのか悩んでいました。 | 個人的に、画像から、数値を出したいとき、どのようにすればよいのか悩んでいました。 | ||
- | しかし、2017年8月時点、KerasやTensorflowでは、MNISTやCifar-10など、画像の分類問題はたくさんコードが転がっているのですが、回帰分析のコードをググっても、写経できそうなコードは見つけられませんでした。 | + | しかし、2017年8月時点で、KerasやTensorflowでは、MNISTやCifar-10など、画像の分類問題はたくさんコードが転がっているのですが、回帰分析のコードをググっても、写経できそうなコードは見つけられませんでした。 |
- | よく、分類問題のニューラルネットワーク最後のソフトマックス関数を、恒等関数にすればよいと書いてあるのをみかけるが、なんか、どうしても実装できなませんでしたが、結局、損失関数 (loss function) として2乗和誤差 (mean squared error)を指定すればよいということが分かりました。 | + | よく、分類問題のニューラルネットワーク最後のソフトマックス関数を、恒等関数にすればよいと書いてあるのをみかけますが、なんか、どうしても実装できなませんでした。結局、損失関数 (loss function) として2乗和誤差 (mean squared error)を指定すればよいということが分かりました。 |
以下のリンクに、Neural Network Consoleでの実装方法を記載しましたので、もしよろしければご覧ください。 | 以下のリンクに、Neural Network Consoleでの実装方法を記載しましたので、もしよろしければご覧ください。 | ||
行 18: | 行 20: | ||
{{: | {{: | ||
- | やはり、以下の本がすごくお勧めです。 | + | Training, Evaluationを行った結果が以下のようになります。 |
+ | {{: | ||
+ | |||
+ | 実装に役立つ機械学習の理論の勉強については、やはり、以下の本が一番のお勧めです。 | ||
< | < | ||
行 36: | 行 41: | ||
ニューラルネットの表現力と回帰分析\\ | ニューラルネットの表現力と回帰分析\\ | ||
=> | => | ||
+ | |||
+ | |||
+ | |||
+ | https:// | ||
+ | チュートリアル:入力画像を元に連続値を推定する | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ===== リンク ===== | ||
+ | |||
+ | 次: | ||
+ | <wrap hi> | ||
+ | |||
+ | </ | ||
+ | |||
+ | [[sidebar|目次]]\\ | ||
+ | |||
+ | 前: | ||
+ | <wrap hi> | ||
+ | [[NNC(SONY)で自前データで画像分類]] | ||
+ | </ |
nnc_sony_で回帰分析.txt · 最終更新: 2019/10/20 by adash333