■ このスレッドは過去ログ倉庫に格納されています
機械学習とかディープラーニングに詳しい方いらっしゃいませんか
- 1 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:17:57.741 ID:6gJFVDN10.net
- 独自の分類器を考えたんだけど妥当性を検討して欲しいのです
- 2 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:18:31.536 ID:b5EAY00P0.net
- それちんぽ出しながら頼むこと?
- 3 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:18:44.615 ID:xapXyHpA0.net
- 分類器w
- 4 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:19:27.313 ID:CT0dciGld.net
- おk
- 5 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:19:56.045 ID:spzOBDSq0.net
- よくわからんがk-fold cross validationを使え
- 6 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:20:29.881 ID:jOo7ePjz0.net
- 詳しくないけど>>1の分類器に妥当性なんてねーってことはわかる
- 7 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:20:40.065 ID:bgVNNbPdr.net
- GAN使え
- 8 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:22:11.195 ID:6gJFVDN10.net
- ラフに実装した奴がFashion_MNISTで85%くらいの精度が出たので
チューニングとか次第でCNNに追いつく事もできるかと妄想したんですが……
- 9 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:22:51.233 ID:6gJFVDN10.net
- 何もしないうちから不評で心配になってきましたがちょっと概要まとめてきます
- 10 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:22:56.106 ID:/Fq88Sls0.net
- 大学のころ強化学習はやってた
二人零和有限確定完全情報ゲームのAI研究してた
- 11 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:24:40.225 ID:6gJFVDN10.net
- 端的に言うと恒等写像をある程度の精度で実行できるオートエンコーダを
分類したいクラスごとに用意してから
各オートエンコーダの出力誤差列:正解ラベル対を教師付き学習でまとめる
っていう方法になります
- 12 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:25:01.198 ID:6gJFVDN10.net
- イメージとしてはこんな感じ
x -> A -> x, y -> B -> y, z -> C -> z
x -> A,B,C -> 誤差A(x),誤差B(x),誤差C(x) -> MLP -> 答え
y -> A,B,C -> 誤差A(y),誤差B(y),誤差C(y) -> MLP -> 答え
- 13 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:26:27.612 ID:6gJFVDN10.net
- Aはxについて上手く学習してるから高確率で誤差A(x) < 誤差B(x)になる
MLPなしでも最小誤差を取れば一定の精度は出るんだけど
最後に全結合してバランス取ったほうが若干マシになるのでMLP挟んでます
- 14 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:30:46.656 ID:/Fq88Sls0.net
- 15年近く前の知識しかないから
知らんワードがいっぱい出てくる
すごいなぁ
- 15 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:33:09.705 ID:6gJFVDN10.net
- MLPは文字数の関係でそう書きましたけど
ただの多層パーセプトロン(多層ニューラルネット)なので多分ご存知かと
- 16 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:34:46.521 ID:/Fq88Sls0.net
- 学習器の層を増やしただけのように見えるけど
独自性はどこ?
- 17 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:35:17.634 ID:RtRm0Qwj0.net
- あ〜なるほどね
ANNとBBCね
- 18 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:38:15.443 ID:6gJFVDN10.net
- >>15
オートエンコーダは普通次数圧縮のために中間層を減らして
特徴抽出に使ったりしてたものなんですが
それをあえて特徴抽出に使わずそのまま単に出力の再現誤差を取ってる点です
- 19 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:39:03.615 ID:6gJFVDN10.net
- >>16でした
- 20 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:42:28.063 ID:/Fq88Sls0.net
- >>18
要するにオートエンコーダの用途を先祖返りさせたってこと?
- 21 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:44:36.890 ID:6gJFVDN10.net
- >>20
先祖返り……になるんですかね?恒等写像を出来るだけうまくするために
ここで使われてるオートエンコーダは中間層の次数>=入力次数くらいで使います
あと中間層を直接ネットワークに組み込むのでなく誤差関数だけを取ってます
- 22 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:50:51.962 ID:6gJFVDN10.net
- 中間層を減らして符号化する意図はなくむしろ中間層を増やしてでも
可能な限り上手く恒等写像するネットワークとして見ているので特殊な用途かと
- 23 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:54:39.678 ID:/Fq88Sls0.net
- 俺の理解力が追い付いてないだけなのかもしれないけど
特に新規性は感じないかな
層を増やすとか次数を変えるとかチューニングの一環に思う
再現誤差も数多く考えられる特徴量の一つとしてとらえればやはりそれもオートエンコーダなんじゃないかとも思う
- 24 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:57:32.587 ID:6gJFVDN10.net
- >>23
なるほど……ありがとうございます
精度が特別出るならともかく現状微妙ですしそういう感じになりますか
総レス数 24
6 KB
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200