2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

機械学習とかディープラーニングに詳しい方いらっしゃいませんか

1 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:17:57.741 ID:6gJFVDN10.net
独自の分類器を考えたんだけど妥当性を検討して欲しいのです

2 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:18:31.536 ID:b5EAY00P0.net
それちんぽ出しながら頼むこと?

3 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:18:44.615 ID:xapXyHpA0.net
分類器w

4 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:19:27.313 ID:CT0dciGld.net
おk

5 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:19:56.045 ID:spzOBDSq0.net
よくわからんがk-fold cross validationを使え

6 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:20:29.881 ID:jOo7ePjz0.net
詳しくないけど>>1の分類器に妥当性なんてねーってことはわかる

7 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:20:40.065 ID:bgVNNbPdr.net
GAN使え

8 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:22:11.195 ID:6gJFVDN10.net
ラフに実装した奴がFashion_MNISTで85%くらいの精度が出たので
チューニングとか次第でCNNに追いつく事もできるかと妄想したんですが……

9 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:22:51.233 ID:6gJFVDN10.net
何もしないうちから不評で心配になってきましたがちょっと概要まとめてきます

10 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:22:56.106 ID:/Fq88Sls0.net
大学のころ強化学習はやってた
二人零和有限確定完全情報ゲームのAI研究してた

11 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:24:40.225 ID:6gJFVDN10.net
端的に言うと恒等写像をある程度の精度で実行できるオートエンコーダを
分類したいクラスごとに用意してから
各オートエンコーダの出力誤差列:正解ラベル対を教師付き学習でまとめる

っていう方法になります

12 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:25:01.198 ID:6gJFVDN10.net
イメージとしてはこんな感じ
x -> A -> x, y -> B -> y, z -> C -> z
x -> A,B,C -> 誤差A(x),誤差B(x),誤差C(x) -> MLP -> 答え
y -> A,B,C -> 誤差A(y),誤差B(y),誤差C(y) -> MLP -> 答え

13 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:26:27.612 ID:6gJFVDN10.net
Aはxについて上手く学習してるから高確率で誤差A(x) < 誤差B(x)になる
MLPなしでも最小誤差を取れば一定の精度は出るんだけど
最後に全結合してバランス取ったほうが若干マシになるのでMLP挟んでます

14 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:30:46.656 ID:/Fq88Sls0.net
15年近く前の知識しかないから
知らんワードがいっぱい出てくる
すごいなぁ

15 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:33:09.705 ID:6gJFVDN10.net
MLPは文字数の関係でそう書きましたけど
ただの多層パーセプトロン(多層ニューラルネット)なので多分ご存知かと

16 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:34:46.521 ID:/Fq88Sls0.net
学習器の層を増やしただけのように見えるけど
独自性はどこ?

17 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:35:17.634 ID:RtRm0Qwj0.net
あ〜なるほどね
ANNとBBCね

18 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:38:15.443 ID:6gJFVDN10.net
>>15
オートエンコーダは普通次数圧縮のために中間層を減らして
特徴抽出に使ったりしてたものなんですが
それをあえて特徴抽出に使わずそのまま単に出力の再現誤差を取ってる点です

19 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:39:03.615 ID:6gJFVDN10.net
>>16でした

20 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:42:28.063 ID:/Fq88Sls0.net
>>18
要するにオートエンコーダの用途を先祖返りさせたってこと?

21 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:44:36.890 ID:6gJFVDN10.net
>>20
先祖返り……になるんですかね?恒等写像を出来るだけうまくするために
ここで使われてるオートエンコーダは中間層の次数>=入力次数くらいで使います
あと中間層を直接ネットワークに組み込むのでなく誤差関数だけを取ってます

22 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:50:51.962 ID:6gJFVDN10.net
中間層を減らして符号化する意図はなくむしろ中間層を増やしてでも
可能な限り上手く恒等写像するネットワークとして見ているので特殊な用途かと

23 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:54:39.678 ID:/Fq88Sls0.net
俺の理解力が追い付いてないだけなのかもしれないけど
特に新規性は感じないかな
層を増やすとか次数を変えるとかチューニングの一環に思う
再現誤差も数多く考えられる特徴量の一つとしてとらえればやはりそれもオートエンコーダなんじゃないかとも思う

24 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 22:57:32.587 ID:6gJFVDN10.net
>>23
なるほど……ありがとうございます
精度が特別出るならともかく現状微妙ですしそういう感じになりますか

総レス数 24
6 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200