2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

AIおじさんと戯れるスレあるいは人工知能総合

1 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:42:52.596 ID:lXn1URMN0.net
AIで出来たおじさんでなくAIに深い興味にあるおじさんです

2 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:45:01.953 ID:lXn1URMN0.net
強いAIの実現に向けたキーワードは「創発」かもと最近思ってます

3 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:48:13.479 ID:lXn1URMN0.net
深層学習が強いAIを実装する器足り得るかは疑問

4 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:50:12.775 ID:sAp/04ewd.net
まずは決まった問題について人間と同等かそれ以上の処理ができるようになってからじゃないかな

5 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:51:21.412 ID:lXn1URMN0.net
>>4
ゲーム並に狭い問題領域なら上手くネットワークを設計するだけで
現行の深層学習の類で何とか出来てしまいそうなくらい勢いはありますね

6 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:52:49.416 ID:lXn1URMN0.net
器足り得るかというのは器が犬とか虫並だとしたら
経験データを与えても人間になれないのは明らかでしょう?という考え方です

7 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:56:17.341 ID:q25OrMwNF.net
人間がなんらかの処理をおこなうブラックボックスの中身を再現できればってことなんだと思う
ただ、今のスタティックな学習結果を維持する方法は人間的ではない

8 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:58:00.039 ID:lXn1URMN0.net
>>7
そうですね しかし人間としての正解モデルは定義できないだろう
ってのが辛いところです

9 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 21:59:10.372 ID:lXn1URMN0.net
落ちてる財布を見つけてどう処理するのが正解?
みたいな表面的なデータを取るだけで人間らしい挙動が作れるでしょうか?

10 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:00:56.632 ID:lXn1URMN0.net
恐らく人間はかなり複雑な抽象化を行っていて
そのおかげで少ないサンプルから色んなシチュエーションに対応できるのだろうと

11 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:02:27.939 ID:rLK81ITfM.net
>>7
え?
εgreedyがあるからスタティックじゃなくね?

12 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:05:32.170 ID:lXn1URMN0.net
εgreedyは強化学習のあれでしたっけ?
状態行動対の最適スコアを選ぶだけでなく一定確率で新しい手を試行する的な

13 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:07:55.386 ID:lXn1URMN0.net
でもあれはグラフを全探索するのがそもそも膨大で困難なので
ちょろっとずつ変わった手試しましょうみたいな方策じゃありませんでしたか
究極的にグラフを全探索する事が可能なら応えは決定的になるんじゃないですかね?

14 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:10:09.334 ID:lXn1URMN0.net
あ なんか難しい問題に軽々しく触れてしまった気がするので
詳しい方からの突っこみをお待ちしてます

15 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:18:17.378 ID:lXn1URMN0.net
話を>>10に戻すと少ないサンプルから多様なシチュエーションをうまく補完する
という部分は確かに機械学習の系譜の使い所かもしれません
でも機械学習は内挿は出来ても外挿してくれるわけじゃないんですよね

16 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:20:21.061 ID:lXn1URMN0.net
人間は全く初体験のような状況においても抽象レイヤーからの何らかのサポートがある
機械学習はそういうのが無い……のか?ネットワークを適切に組めば可能?

17 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:22:04.761 ID:lXn1URMN0.net
人間は見たことのない色の鳥を思い描く事ができますが
機械が入力した事のない色の鳥を描いたらそれはバグでしょうか?

18 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:24:39.981 ID:fwIGY2TI0.net
転移学習ができるんだから、ないわけじゃなくて、タスクが既知のモデルと類似のケースだと判別する仕組みが整ってないだけだと思う

19 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:26:34.196 ID:lXn1URMN0.net
>>18
人間はカラフルな野菜のデータを鳥の柄に転移できるような仕組みがあり
機械はそこまで複雑な転移の仕組みが無いって事ですかね

20 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:28:45.388 ID:lXn1URMN0.net
AとBが似ていると判断できるということは
抽象化した結果が同一になるような上手い抽象化の仕組みがあるって事かな?
犬クラスと猫クラスが共通の動物クラスを持ってるみたいな認識の構築が

21 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:30:11.775 ID:lXn1URMN0.net
深層学習はその辺りが人間と乖離してる気がしますね
目と鼻と口があるから顔だと認識してるわけでなく
fad;ljとoiukjとga;bがあるから顔!みたいな不自然な抽象化があるような

22 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:31:16.663 ID:fwIGY2TI0.net
>>19
なんかすごい抽象的な回答でもうしわけないけど、今のAIはまだ個別のタスクに最適化されるばかりで、意思を持たせるようになってない気がする。
強化学習はそのアプローチだけど、鳥に野菜の柄を載せたいと考える仕組みが、そもそもあまり検討されてないよね。マイクロソフトのマルチモーダルAIがそれに当たるくらいで。

23 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:33:31.964 ID:fwIGY2TI0.net
>>21
それは時々思う。隠れ層出力見ても、人間の判断方法と一致してるのかよく分からんし、判別が正しいだけにやや気持ち悪い。ブラックボックスはやはり問題。

24 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:35:53.757 ID:lXn1URMN0.net
>>22
俗に言う弱いAIの発展で成り立っていて強いAIはまだって感じですよね
現行の技術の先にそれがあるのかまた全く別の話なのかは気になります
マルチモーダルAIは知らなかったので調べてみます

25 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:37:23.334 ID:yKxbDti80.net
強いAIってそもそも必要か?

26 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:38:52.992 ID:lXn1URMN0.net
>>23
形状認識の基本に人間と同様のガボールフィルタらしきものを形成する
ような場合もあるとか言われてますけど
自分が試して出来たのは何か独自の変なフィルタだったのでそう考えるようになりましたね

27 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:40:02.785 ID:lXn1URMN0.net
>>25
AIおじさんはロボ娘の幻想に取り憑かれてるので……
実際手に入っちゃうと何だこんなもんかって押し入れにぶち込んじゃう気はしますが

28 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:41:28.519 ID:fwIGY2TI0.net
>>26
意外と人間も結果が同じなだけで、経緯は皆違ってたりして。

29 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:42:29.883 ID:yKxbDti80.net
>>27
弱いAIで会話とかそれぞれ実現できるんじゃね?

30 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:45:14.868 ID:lXn1URMN0.net
>>28
その可能性は否定しきれないですね確かに
ちょっと真面目に考えると怖い話にもなりそうですけど
クオリアがどうこうとかスワンプマンとか哲学的ゾンビとかそっち系の

>>29
弱いAIで会話は……一時間未満で飽きるくらいのものなら出来るでしょうけど
会話が成り立つAIって結構想像以上に上等ですよ?
例えばアニメを実際見たか見たフリしないとアニメの話題で盛り上がりにくいですよね?

31 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:46:40.504 ID:yKxbDti80.net
>>30
それインプットが足りてないだけじゃね
チューリングテストはクリアできたんだから知識量が足りれば会話はそんなに難しくない気がするけどね
金にならないからやってないだけで

32 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:48:07.916 ID:fwIGY2TI0.net
ヒントンさんが言うように、人間は一度見れば覚えるのに、深層学習は何万もデータないといけないなんておかしいだろ!ってことだよね。人間には何かあるな。

33 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:49:56.321 ID:lXn1URMN0.net
>>31
そうでしょうか 共通認識や常識を理解できるくらいの能力が器自体にないと
ただデータをぶちこんでもどうにもならない部分がある気がしてますけど
上でも言った例ですがいくら賢い犬に映画沢山見せても人間並に感傷的にはならないですよね?

34 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:50:45.321 ID:yKxbDti80.net
>>33
ああ 感覚的な部分のことね
理解した

35 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:51:51.498 ID:lXn1URMN0.net
>>32
やっぱり常識っていう言葉が機能しているのを見る限り
人間の抽象化の仕組みにはある程度共通してる部分もあると思いますし
今まだ足りてない何かがありそうですね

36 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:53:16.751 ID:lXn1URMN0.net
>>34
それっぽい反応で相手を楽しませるだけなら
確かに出来そうなんですけどそれは真のロボ娘じゃないんですよ

37 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:54:13.527 ID:sAp/04ewd.net
案外いろんなタスクに精通するようなもののほうが少ないデータでそれっぽい出力ができるのかな?

38 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:54:14.382 ID:lXn1URMN0.net
機械の抽象化を人間のそれに近づけるというか
任意すぎる抽象化を制限する?っていう方向で進めれば良いんですかね
全く言葉遊びの段階で具体性は皆無ですけど

39 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:55:38.557 ID:fwIGY2TI0.net
>>35
それを聞いて、無教師学習的なことをニューラルネットの枠組みでやってんのかなあと浅い知識ながら思った。人間は記憶からの類似タスクの検索がすこぶる正確。

40 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:56:14.802 ID:lXn1URMN0.net
>>37
幅が広すぎるのもフレーム問題みたいな話になるので駄目でしょうけど
一つのネットワークでいくつも尖ったタスクをーってのも
ノーフリーランチ定理あたりに引っかかって駄目になりそうですね

41 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 22:58:22.591 ID:lXn1URMN0.net
>>39
脳みそが真っ新な状態から共通認識を生めるようになるとしたら
その偏向性はどこからやってくるんでしょうね?遺伝的形質なのかな

42 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:00:47.668 ID:fwIGY2TI0.net
人間の神経細胞が、タスクごとに結合を変えるなんてありえないし、様々なタスクごとに個々のモデルを保持できるようにも思えないから、転移学習で乗り切ってるのは確かだよなあ。

43 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:01:18.771 ID:lXn1URMN0.net
記憶からの類似タスクの検索が上手いという話については
脳はパターンから未来を想起せざるを得ない構造になってる
っていうのを思い出しますねNumentaのHTMの話

44 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:02:36.135 ID:lXn1URMN0.net
>>42
転移の前提になる似ていると判定する能力はかなり大事っぽいですね

45 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:02:42.293 ID:fwIGY2TI0.net
>>41
新生児でも、人の顔を検出できるとはいうから、クラスタリングに関わる先天的な仕組みは備わってると個人的には思う

46 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:03:50.273 ID:fwIGY2TI0.net
>>43
全然知らなかった。調べてみます。

47 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:06:21.804 ID:lXn1URMN0.net
脳は常に一歩先の未来を経験パターンから想起していて
その想起したパターンと現実とが乖離した時に驚きを感じて
その差異を記憶しやすくさせているとかなんとか

48 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:07:26.116 ID:lXn1URMN0.net
でもHTMは最初の理論の話の本が日本語版絶版になってたり
理論は面白いけど実用でいまいち成果あげてなかったりで学ぶべきかは微妙

49 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:10:42.505 ID:fwIGY2TI0.net
>>47
なるほど、驚きという機能に意味があるというか、驚きが損失関数に相当するというのは、面白いと思った。

50 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:18:04.680 ID:lXn1URMN0.net
深層学習の抽象化に人の脳と似た偏向性を持たせる
うーんどうすれば可能になるのか想像もつかない

51 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:18:50.570 ID:lXn1URMN0.net
そもそも深層学習自体はそれほど複雑でないロジックで出来てるはずなのに
出来上がったネットワークがブラックボックス的なのは何なの

52 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:23:06.157 ID:lXn1URMN0.net
データでネットワークをプログラミングしている?

53 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:28:30.293 ID:lXn1URMN0.net
目・鼻・口を個別に学習したネットワークを合成して
あとは上手く組み合わせて顔認識してくれい!
みたいな事が出来れば良いんだけどそういうのはまだ無い?

54 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:29:26.069 ID:lXn1URMN0.net
全体から任意の抽象化を求めるから人間と乖離するんであって
個別の抽象レベルで学習したネットワークを組み合わせられれば解決する気がした

55 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:29:49.222 ID:yKxbDti80.net
顔認識はもうあるじゃん

56 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:30:09.507 ID:fwIGY2TI0.net
経験したタスクのクラスタリングの評価基準としては、シチュエーションと感情(損失)がありそうかなと。この6次元くらいの空間内でタスクをマップしといて、関連する基幹モデルというか抽象レイヤーを選択するようにさせる、とか?

57 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:32:25.611 ID:lXn1URMN0.net
>>55
ええと今言いたかったのは現行の顔認識は
目?鼻?口?らしきもの?を認識して組み合わせる事は出来てるけど
個別に確かにそのパーツを目・鼻・口として認識してる保証はなくて

fasdとka;sdとipfsaみたいな出鱈目なパーツの組み合わせを顔としてる可能性もあると
んでその可能性を排除して目は目として認識してほしいなってのを
目だけ学習したネットワークを組み込む事で実現できたらなって話

58 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:32:35.732 ID:fwIGY2TI0.net
>>53
自動ではないかと。ブラックボックスになるのが嫌だから、キーとなる個別のパーツを学習させた上で改めて最終的な評価を学習させることはあるけど。

59 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:32:38.990 ID:CEzDwCMU0.net
そもそもよく知らないけど
人間の脳ですら目に見えない細胞を集めてスイカくらいのデカさが必要なのに
情報を人間の脳みたいに統合することが機械に出来るのかね

60 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:34:01.330 ID:fwIGY2TI0.net
>>58
補足。学習済みモデルを組み合わせて、あとはよきに計らえで、そういうの自動でやってくれると捗るね。

61 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:37:48.014 ID:lXn1URMN0.net
>>56
ごめんちょっとついていけなくなってきた
適切な抽象化のための似ているの基準に何を使うかって話かな?

>>58
別に個々のネットワークを繋げなくても
パーツだけ強調したデータ使えば同等の事は出来るんだろうか?

>>59
神経細胞がただのメモリなら無理ではないと思うんだけど
あいつらクロック持ったコアみたいにも動くから現実的には厳しいかもね

62 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:39:25.356 ID:CEzDwCMU0.net
例えAIが出来たとしても
20世紀的なクッソデカいAIならまだやりようがあると思うけど
偏在的にAIが出てくるようになったら悪夢でしかないわ

63 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:39:48.314 ID:lXn1URMN0.net
>>60
そうそういう柔軟性があってもおかしくないと思うんだ
今って紋切り型のネットワーク設計して流し込んでで拡張とかあんまりしないでしょ?
まぁ実際そういうことやろうとすると言葉以上に難しいんだろうけれどね

64 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:41:12.524 ID:lXn1URMN0.net
>>62
すぐには無理だと思うけど実際出来たら社会構造から変わっちゃうよね

65 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:42:53.134 ID:fwIGY2TI0.net
>>61
すまん、完全に素人の妄想。

inputをタスクが生じたシチュエーションと何らかの記憶プールから選択したモデルにしておいて、結果を予測させる。
その上で実際に起こった結果と予測を対比して、類似していなければ、新データとして学習みたいなフレームを思ってた。

66 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:43:26.191 ID:CEzDwCMU0.net
まあ人工知能ってのがあくまで言うことやってくれるただのゴーレムなら良いけど

67 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:49:00.898 ID:lXn1URMN0.net
>>65
なるほどシチュエーションをどこまでどうデータ化するかは難しそうだけど
概念自体はちょっとだけわかった
俺はシチュエーションを入出力に取るオートエンコーダみたいなのかと思ってた

68 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:52:08.830 ID:fwIGY2TI0.net
>>67
あーそうだ、オートエンコーダの方が良さげだね。シチュエーションをどう取るかは妄想なので分からんけど、やっぱその入力自体も隠れ層出力なんだろうなあ…

69 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:57:37.728 ID:lXn1URMN0.net
機械学習で困るのは例えば旧式ロボットのセンサーで取ったデータを
そのまま新型のセンサー数から違うロボットに適用するみたいな
出力を保ったままネットワーク構造を任意に再成形するのが難しいってとこな気がする

70 :以下、?ちゃんねるからVIPがお送りします:2018/07/01(日) 23:58:35.974 ID:lXn1URMN0.net
シチュエーションの話でいえば6次元で足りてたはずが
間に3次元ほど追加したくなったときに転用しづらいっていう

71 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:00:30.292 ID:6gJFVDN10.net
でもこの辺りの技術は何かありそうだな

72 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:02:16.596 ID:nqgIyPeB0.net
分かる。普段画像しか取り扱ってないんだが、少し入力サイズ変えようと思うと、全て学習し直し。確かにおかしい。
中間層以降は再利用できるはずだね。

73 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:06:52.916 ID:nqgIyPeB0.net
結局なんで再利用しないかというと、下手なところで繋げると、そのレイヤーでの抽象化意味があってないかもしれないからかなあ。ブラックボックスで解釈できないから、もういいや最初から学習しようってなる

74 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:12:39.694 ID:6gJFVDN10.net
重みほぼ0から結線すれば
ドロップアウトしてたセルが現われただけみたいに誤魔化せないかな
一個二個増えるだけなら良くても構造自体変わっちゃうと無理か

75 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:18:35.003 ID:nqgIyPeB0.net
>>74
サイズがただ大小するみたいにデータの意味合いが変わらないなら行けそう。画像処理してたところに匂いが加わるみたいだと、なんか変な感じ。転移学習するからいいやって割り切れるのかもだけど。

76 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:32:20.286 ID:nqgIyPeB0.net
画像系だと、何はともあれ最初にvggとかxceptionとかの汎用視覚モデルをくっつけるね。転移学習のために。
センサが増えてより多軸になるとすると、そこに並列に匂いとかのモデルがくっついて、2つのモデルからの出力を受け取るレイヤーが出てくるんだろうな

77 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:36:56.108 ID:6gJFVDN10.net
うーん転移学習自体への認識が大分変わったよ
それってどうなの?って感じの認識しかなかったけど
俺が求めている内容には意外と合うみたいだからもっと調べとく

78 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 00:52:19.687 ID:nqgIyPeB0.net
学習済みモデルとタスクのジャンルが近いなら
転移学習なんだろうけど、その近さを判断する基準がないのがなあ。細胞を認識させるのに一般画像のモデルを転移学習させるのはやや違和感ある。
最初の話だけど人間の脳内では自動でやってるはず。

79 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 01:05:27.280 ID:6gJFVDN10.net
概念ごとにオートエンコーダ用意して
例えば猫エンコーダが猫画像を90%復元するけど犬は猫っぽくなって60%
でも車画像は無茶苦茶に崩れて5%の復元度だから猫と犬は車より近い
みたいな事を考えたんだけど無理あるかな?

80 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 01:12:04.648 ID:nqgIyPeB0.net
>>79
そういえば、詳しくないけどganの周りで類似度をマップするのがあったな。VAEだったっけな。オートエンコーダ使うの。

81 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 01:14:02.330 ID:6gJFVDN10.net
>>80
あー名前だけは聞いたことあるそうかあれがそういう系の技術なんだ
やっぱり素人が思いつくようなことはちゃんと研究されてるんだな

82 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 01:23:53.788 ID:6gJFVDN10.net
そう入力を入力足らしめる何らかの潜在変数を学習させて
潜在変数の類似度で類似度が出せるって話だった
ちょっと違うけどこれの方が軽くて精度もいいんだろうな

83 :以下、?ちゃんねるからVIPがお送りします:2018/07/02(月) 01:30:06.921 ID:nqgIyPeB0.net
気が遠くなりそうだけど、タスクごとにVAEで距離求めといて、モデルと紐づけておけば転移学習が捗りそうだね。だけど、転移元モデルを探したい新しいタスクに対しても、距離求めるためには大量の学習データが必要になるのかな。それは勘弁。
今日はすごく勉強になった。サンクス寝るわ。

総レス数 83
24 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200