kerasで重回帰分析
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| kerasで重回帰分析 [2017/08/09] – [見出し] adash333 | kerasで重回帰分析 [2018/10/07] (現在) – 外部編集 127.0.0.1 | ||
|---|---|---|---|
| 行 10: | 行 10: | ||
| そういえば、重回帰分析よくやっていました。今でもやりますが。 | そういえば、重回帰分析よくやっていました。今でもやりますが。 | ||
| - | 以下の本を再度読むと、deep learningの最後の層をソフトマックス関数ではなく、恒等簡単にすればよいと言うことがわかった。 | + | 以下の本を再度読むと、deep learningの最後の層をソフトマックス関数ではなく、恒等簡単にすればよく、さらに、損失関数 (loss function) として2乗和誤差 (mean squared error)を指定すればよいというかとが分かりました。 |
| + | |||
| + | まだKerasでの実装はできていませんが、以下に、Neural Network Console(SONY)での実装のリンクを記載させていただきます。 | ||
| + | |||
| + | NeuralNetworkConsole(SONY)で回帰分析(1) | ||
| + | 2017/ | ||
| + | http:// | ||
| 行 37: | 行 43: | ||
| linear関数を使って、結果に連続値を出している | linear関数を使って、結果に連続値を出している | ||
| + | |||
| + | http:// | ||
| + | Keras 1d-CNN 1次元畳み込みニューラルネットワーク で 単変量回帰タスク を 行って成功した件 (1d-CNN層の出力結果 を flatten してから Dense(1) に 渡さないと 次元(shape)エラー に なる ので 注意!) | ||
| + | |||
| + | http:// | ||
| + | https:// | ||
| + | |||
| + | https:// | ||
| + | シリーズML-06 ニューラルネットワークによる線形回帰 - SlideShare | ||
| + | |||
| + | |||
| + | http:// | ||
| + | Regression Tutorial with the Keras Deep Learning Library in Python | ||
| + | by Jason Brownlee on June 9, 2016 in Deep Learning | ||
| + | |||
| + | https:// | ||
| + | これが、私が求めているものに一番近いか? | ||
| + | |||
| + | |||
| + | http:// | ||
| + | |||
| + | |||
| + | https:// | ||
| + | Keras input_shape for conv2d and manually loaded images | ||
| + | |||
| + | |||
| + | http:// | ||
| + | KerasではじめるDeepLearning | ||
| + | | ||
| + | keras-logo-small | ||
| + | 2017年05月19日 | ||
| + | |||
| + | http:// | ||
| + | 2017年6月3日土曜日 | ||
| + | Jupiter Notebook + Keras(Tensor Flow)でチュートリアルをしてみる3 MINIST | ||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| ===== 見出し ===== | ===== 見出し ===== | ||
| (作成中) | (作成中) | ||
kerasで重回帰分析.1502320679.txt.gz · 最終更新: 2018/10/07 (外部編集)
