nnc_sony_で回帰分析
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| nnc_sony_で回帰分析 [2017/08/20] – [NNC(Neural Network Console)(SONY)で回帰分析] adash333 | nnc_sony_で回帰分析 [2019/10/20] (現在) – [NNC(Neural Network Console)(SONY)で回帰分析] adash333 | ||
|---|---|---|---|
| 行 1: | 行 1: | ||
| ===== NNC(Neural Network Console)(SONY)で回帰分析 ===== | ===== NNC(Neural Network Console)(SONY)で回帰分析 ===== | ||
| + | ---// 2019/10/20 更新// | ||
| + | |||
| 個人的に、画像から、数値を出したいとき、どのようにすればよいのか悩んでいました。 | 個人的に、画像から、数値を出したいとき、どのようにすればよいのか悩んでいました。 | ||
| - | しかし、2017年8月時点、KerasやTensorflowでは、MNISTやCifar-10など、画像の分類問題はたくさんコードが転がっているのですが、回帰分析のコードをググっても、写経できそうなコードは見つけられませんでした。 | + | しかし、2017年8月時点で、KerasやTensorflowでは、MNISTやCifar-10など、画像の分類問題はたくさんコードが転がっているのですが、回帰分析のコードをググっても、写経できそうなコードは見つけられませんでした。 |
| - | よく、分類問題のニューラルネットワーク最後のソフトマックス関数を、恒等関数にすればよいと書いてあるのをみかけるが、なんか、どうしても実装できなませんでしたが、結局、損失関数 (loss function) として2乗和誤差 (mean squared error)を指定すればよいということが分かりました。 | + | よく、分類問題のニューラルネットワーク最後のソフトマックス関数を、恒等関数にすればよいと書いてあるのをみかけますが、なんか、どうしても実装できなませんでした。結局、損失関数 (loss function) として2乗和誤差 (mean squared error)を指定すればよいということが分かりました。 |
| 以下のリンクに、Neural Network Consoleでの実装方法を記載しましたので、もしよろしければご覧ください。 | 以下のリンクに、Neural Network Consoleでの実装方法を記載しましたので、もしよろしければご覧ください。 | ||
| 行 39: | 行 41: | ||
| ニューラルネットの表現力と回帰分析\\ | ニューラルネットの表現力と回帰分析\\ | ||
| => | => | ||
| + | |||
| + | |||
| + | |||
| + | https:// | ||
| + | チュートリアル:入力画像を元に連続値を推定する | ||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | ===== リンク ===== | ||
| + | |||
| + | 次: | ||
| + | <wrap hi> | ||
| + | |||
| + | </ | ||
| + | |||
| + | [[sidebar|目次]]\\ | ||
| + | |||
| + | 前: | ||
| + | <wrap hi> | ||
| + | [[NNC(SONY)で自前データで画像分類]] | ||
| + | </ | ||
nnc_sony_で回帰分析.1503242952.txt.gz · 最終更新: 2018/10/07 (外部編集)
