kerasで重回帰分析
差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
kerasで重回帰分析 [2017/08/09] – [Kerasで重回帰分析] adash333 | kerasで重回帰分析 [2018/10/07] (現在) – 外部編集 127.0.0.1 | ||
---|---|---|---|
行 10: | 行 10: | ||
そういえば、重回帰分析よくやっていました。今でもやりますが。 | そういえば、重回帰分析よくやっていました。今でもやりますが。 | ||
- | 以下の本を再度読むと、deep learningの最後の層をソフトマックス関数ではなく、恒等簡単にすればよいと言うことがわかった。 | + | 以下の本を再度読むと、deep learningの最後の層をソフトマックス関数ではなく、恒等簡単にすればよく、さらに、損失関数 (loss function) として2乗和誤差 (mean squared error)を指定すればよいというかとが分かりました。 |
+ | |||
+ | まだKerasでの実装はできていませんが、以下に、Neural Network Console(SONY)での実装のリンクを記載させていただきます。 | ||
+ | |||
+ | NeuralNetworkConsole(SONY)で回帰分析(1) | ||
+ | 2017/ | ||
+ | http:// | ||
行 22: | 行 28: | ||
Kerasで実装してみたい。 | Kerasで実装してみたい。 | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ===== 参考 ===== | ||
+ | |||
+ | http:// | ||
+ | kerasを使ってみる | ||
+ | ototo | ||
+ | 2017年07月19日に投稿 | ||
+ | |||
+ | linear関数を使って、結果に連続値を出している | ||
+ | |||
+ | http:// | ||
+ | Keras 1d-CNN 1次元畳み込みニューラルネットワーク で 単変量回帰タスク を 行って成功した件 (1d-CNN層の出力結果 を flatten してから Dense(1) に 渡さないと 次元(shape)エラー に なる ので 注意!) | ||
+ | |||
+ | http:// | ||
+ | https:// | ||
+ | |||
+ | https:// | ||
+ | シリーズML-06 ニューラルネットワークによる線形回帰 - SlideShare | ||
+ | |||
+ | |||
+ | http:// | ||
+ | Regression Tutorial with the Keras Deep Learning Library in Python | ||
+ | by Jason Brownlee on June 9, 2016 in Deep Learning | ||
+ | |||
+ | https:// | ||
+ | これが、私が求めているものに一番近いか? | ||
+ | |||
+ | |||
+ | http:// | ||
+ | |||
+ | |||
+ | https:// | ||
+ | Keras input_shape for conv2d and manually loaded images | ||
+ | |||
+ | |||
+ | http:// | ||
+ | KerasではじめるDeepLearning | ||
+ | | ||
+ | keras-logo-small | ||
+ | 2017年05月19日 | ||
+ | |||
+ | http:// | ||
+ | 2017年6月3日土曜日 | ||
+ | Jupiter Notebook + Keras(Tensor Flow)でチュートリアルをしてみる3 MINIST | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
kerasで重回帰分析.1502291896.txt.gz · 最終更新: 2018/10/07 (外部編集)