◎正当な理由による書き込みの削除について: 生島英之とみられる方へ:
【統計分析】機械学習・データマイニング29 YouTube動画>2本 ->画像>3枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/tech/1597882603/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。
!extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1行ずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング28
http://2chb.net/r/tech/1588293154/
-EOF-
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured 文献調査してると
最近ほとんど日本人の名前を見かけないことに気づく
mnistで各画像のピクセルを特徴量にして学習するってのは理解しました
同様にして犬だの猫だのの画像を大量に突っ込めば判定できるってのもイメージできる
でも画像内部の物体検出して四角で囲ってラベルつけるってのはあれは一体どういう仕組みになるんです?
対象領域の検出方法とか、大きさがバラバラの範囲をどう判別するのかとか、さっぱりわからない
そもそもどういうモデルを作ってるのか、何を特徴量にして判定してるのか、haarlikeだのrcnnだのの解説読んでもイメージ全くつかめないんですが
分かりやすく解説してるところとかないですかね
地道に矩形をずらしながら判定してるだけだったような
>>4 Googleの自動運転車かなんかのでは
人や車や自転車やバイクを本社の倉庫で8方向から撮影した画像でそれぞれ学習するんだってさ。
それを、エヌビディアのCUDAで並列化してパターン認識させるとよ。
>>4 領域検出とかセグメンテーションっていう分野だね
いろいろやり方がある
ディープラーニングと組み合わせて検索すればいろいろ引っかかるよ
勉強し始めたけど最小二乗法がよくわかりません。
式を見ると残差二乗和が用いられててそれを最小にしてるのはわかります。
一方で平均二乗誤差を使って最小化もできると思うのですが、それは最小二乗法とは言わないのでしょうか。
正規分布を仮定したら分散が最小になるから二乗誤差が用いられる
>>10 学習後の出力=予測と実際の値との差をどう測定するかによるんじゃないかな
目的によってその距離をどうしたら都合が良いか
文字列間の距離とかも考えることはできるだろう
ユークリッド距離とかマンハッタン距離とか
>>14 Wikipediaにもそれなりにちゃんと書いてあるじゃないの
>>3 文献だけじゃなく新興企業
ユニコーン企業もほとんど無いからな
古巣の企業がこれから落ちて行くのはわかっているが
有力な新興企業も出て来そうにない
政府が焦って日本にシリコンバレーのようなものを構築させようと試みていたけどおそらく盛り上がらない
スマホのシェアもダメでスマートウォッチもダメでAIの分野は周回遅れ
新しい分野は何も無いからな
昔ながらのモノ作りの部分で頑張っている日本企業は多いけども
全体的に政治家や経営者勢が、自分だけ良ければそれでいい
ってことで保身に走った感は否めない
>>16 PFNもファナックと協力して頑張ってるみたいだけど、
成果がパッとしないのは人材に恵まれないせいか?
ファナックは営業車の色がちょっとあれだよな
わざわざロボットに合わせなくていいのに
営業車から出てきた営業マンのジャケットが
ロボットと同じ色合だった時のガッカリ感は今でも記憶に残っている
同じ黄色でも違う感じの黄色でも良かったんじゃないかと
シンプルで美しく、使いやすくて直感的にわかりやすいっていう
見た目に拘った会社が米国で初めて時価総額2兆ドルを突破してるんで
結構そういうのは大事かもしれない
カリスマ指導者も昔
莫大な金を使って製品を開発しておいて
売れたら売れただけ赤になるという価格設定で
「行き届かないと意味が無いんだ!」と経営陣とやり合っていたけども
まさかここまで大きくなるとは思わなかっただろうな
戻って来た時に自分を追い込んだ旧経営陣、役員陣を片っ端から切って行ったらしいけど
でも倒産寸前の状態から会社を立て直したのはあれだからな
ニューラルネットワーク勉強してて画像処理でCNNとかの話題になった途端断絶があると思わん?
さっきまでのノードどこ行った?重みは?バックプロパゲーションは?って
うんうん唸って重みに当たるものがフィルターの行列の数値で、ノードが画素の数値のまとまりで、っていうのが本とかstackoverflowとかと格闘してようやく見えてきた
みんなここ簡単に乗り越えられたもんなの?この辺の解説をやってる本が全く無くてどうなってんのと思った
>>20 自分の給与が一ドルなんだから怖いもの無しだろ。
誰にも遠慮する事ないんだからな。
当時会社の時価総額以上の資産を持ってたんじゃないのかな、ディズニーの筆頭株主だったから。
>>21 CNNのサワリで重み共有って聞かなかった?
ニューラルネットワークの重みを制約すると畳込になるよ
>>21 そんなあなたに超おすすめ
わりとまじで必見
ホップフィールドネットワークって一つの行列に複数の画像を埋め込む技術なの?
カメラの顔検出して年齢予測するのを見たんだけど、あれは顔画像を検出するためのモデルと顔画像から年齢を推定するモデルの2つが必要になるの?
顔画像に対して年齢をラベル付けしたデータ食わせてもそれだけじゃ検出部分ができねぇよなと思ったんだけど合ってる?
初心者の初歩的な質問で申し訳ないんだけど
seq2seqで使うコーパスの、出現数の少ない単語をUNKに変えたものもどう扱えばいいのかわからない
UNKが含まれている文は学習しないほうがいいのか
それともUNKの部分だけone-hot表現するときにすべての次元を0にすればいいのか
それともUNKの部分を抜かして、次の単語をone-hot表現すればいいのか
誰か教えてください
unkの扱いも訓練させる必要がある
idを割り当てた上で訓練すればよい
UNK を う●こ と 脳内よみあげしてしまった・・・
λ... < ちょっとスイカ食ってくる
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw
>>35 もうソレでしか読めなくなってしもたor?
中身を理解すれば統計学の一部になるが、理解せずただ使うだけなら統計とか関係ない単純作業
機械学習の公平性ってどういう問題設定なの…
予測と決定(予測結果をどう使うか)は別問題だと思うんだけど。
機械学習によって、女性をある仕事に採用しない方がいいとか、黒人はゴリラににてるとかの結果がでるとまずいそうな
>>46 この辺読んどけ
http://www.cs.toronto.edu/~madras/presentations/fairness-ml-uaig.pdf
>>49 ゴリラの方は学習データと予測対象の母集団が一致していないという、単なるサンプリングの失敗じゃない?
>>50 ありがとう。
発展途上でまだしっかりとした問題設定はできてないと理解しました。
名大会話コーパス読み込んでseq2seqやってんだけどめっちゃ重い
メモリ16ギガ gtx1060ってスペック不足?
それともコードが悪い?
>>56 ディープラーニングで画像処理するならメモリとグラボの性能
ようするに右脳系処理だけど
自然言語文字列処理はストレージの読み書きとCPUの性能による
いわゆる左脳系処理だから
M.2やSSDとXeon phiね
>>57 m.2 ssdではあるけどcpuは第8世代のi5-8500を使ってる
初めて作ったaiだから普通どれだけリソース食うのかわからないけど、エポックが後半になってくるとメモリもcpuも99%に張り付く
xeonに買い替えたほうがいい?
>>58 自然言語をAIでごにょごにょーってやろうとすると
最終段階一歩前くらいが
メモリ爆食いでCPU負荷もモリモリかかるのが普通っぽいぞ。
おれさまの経験によれば。
pytorchを少しいじってみた
こんなに簡単にニューラルネットワークを定義できることに驚き
みんな自分でnn.Moduleを継承したクラスをごりごり書いてるの?
自分に出来る気がしない。。。
そこまでやってる人は少ないんじゃないかな
上位のAPI使うだけでも結構いろいろできちゃうし
俺も必要に迫られるまでは手を出す気がしない
勉強してもすぐ陳腐化しちゃうしね
しかしAttentionはもっと簡単に使えるようにならんものか
モデルをゴリゴリに作り込むのは趣味でやってほしい。
実務だと引継ぎ不能に…。
モデルをゴリゴリに作り込むことでそれに見合うリターンが得られるならいいんだけど、
・そもそも目的関数の選択が適切でない
・予測対象の母集団が定義できていない
・偏ったデータを考えもなく使っている
・簡単な特徴量を1つ追加した方が精度が改善する
だったりして、粗大ゴミが作られるのが怖くて…。
そしてライブラリのバージョンアップで動かなくなるという罠
kerasの英仏翻訳のサンプルプログラムにattentionぶちこむにはどうすればいいんだ?
>>70 Attentionを使うための便利なものはKerasには用意されてないっぽい
実装してる人のコード見ると、ベクトル演算とか組み合わせてグラフ繋げて自力で作ってたりする
あまりに大変すぎるので、そのうち何かサポートが追加されるんじゃないかと期待してるが
誰か簡単な方法知ってたら教えてくれ
kerasではなくpytorchのほうがいいのかな
face book嫌いだから使いたくないけど
attentionて普通に組んだら計算コスト洒落にならなそう。
うお、KerasにAttentionレイヤー用意されてたのか
tf.keras.layers.Attention
いつの間に
>>74 坊主憎けりゃ、だな
お前が使ってもfacebookは1ミクロンも得しないから安心して使え
エロ動画のモザイク取り除くai作りたい、てかなんで誰も発売しないんだ
それはAI界最大級の難しいテーマだからな。
コンピューターには性欲がないからw
>>79-80の流れに朝からワロラサレターヨ(・∀・)
あるにはあるけど、エロ画像だけ学習させて商品として提供してる会社がなくないか
昔の全然とれないモザイクリムーバーみたいに売れば大ヒットだとおもうんだけどなあ
活性化関数は出力を得るためにかけるんだよね?
dropoutはどの層で有効にすればいいの? 中間層すべて?
顔消しモザ消そうとしてちんこが生えたらどうするんだ
>>86 上:せやな
下:やりすぎても、やらなさすぎてもうまくいかず、さじ加減が職人芸だときいている
>>68 数学や統計を極めても、上2つは難しくね?
りんごちゃんとはるな愛の区別が出来ないんだけど過学習かな
>>89 上2つが適切に設定されていないと、結論の妥当性が示せない。
>>86 中間層すべてにかけるのが普通かな
出力層にもかける流派もあるらしいが
ドロップアウト率は入力層に近い方を高く、遠い方を低くするもんらしい
非線形関数を通さないと線型結合を繰り返すだけになるんじゃないか?
あと微分しても一定の値だからバックプロパゲーションも出来ないのでは?
>>94 ヒントンの論文だと
全中間層でdropoutかけてる図がでてたんだよね
悩む🤔
GeForce RTX 3090はFP32性能が36TFLOPSか、すげーな
しかしせっかくTensorCoreが載ってるのに、これって学習には使えないのね
FP16しか対応してないからかな? 確かにFP16じゃBPがうまく進まなそうだが
性能半分でいいから、FP32対応してくれればいいのに
せっかくの汎用マトリクス演算ユニットなのにもったいない
>>97 どこでそんなマヌケな情報を手に入れたんだよ
>>98 XEON PHIより難易度高そうだけど
THX
>>102 出てるよ
fp16だと71tflopsだってさ
nVidiaのTensorCoreはFP32には対応していない
いちおう、TensorflowなんかでもFP16設定にすればTensorCoreも学習に使ってくれるみたいね
もっとも試してみた人のブログとか見てるとやっぱFP16じゃ精度が悲惨なことになるらしい
https://qiita.com/kuroyagi/items/e70c55cbc88fc0ed0220 そういう意味じゃやっぱ推論専用という捉え方でいいんじゃないかな
71Tflopsとか夢があるけどなあ
× nVidiaのTensorCoreはFP32には対応していない
〇 GTX/RTXのTensorCoreはFP32には対応していない
A100とかだとFP32/64も対応してる。学習アクセラレータなんだからそりゃそうだ
グラボに載ってるTensorCoreは対応してなくて推論専用って話ね
RTX 30シリーズはSSDから直接グラフィックデータを読み込めるらしいが
たぶんDLの学習データ転送にも使えるよね
flopsもメモリ帯域も上がってるしDL用途にも別次元の速さが実感できそうだ
>>108 103じゃないが、↓によると238Tensor-TFLOPSとなってるな
https://pc.watch.impress.co.jp/docs/news/1274381.html Tensor-TFLOPSってのがよくわからんがFP16の性能かな?
FP16までしか対応してないソースは↓
https://www.nvidia.com/ja-jp/data-center/tensor-cores/ 「サポートされている Tensor コア精度」に書いてある
Turingまでしか記載がないが、AmpereもFP32に対応したなんて発表はないし、
推論専用という位置づけは変わらないので一緒だろう
Tensor-TFlopsについて自己レス
Tflopsは普通ベクトル演算性能を指すが、TensorCoreは固定サイズのマトリクス演算なので
こういう書き方をしてるらしい
ピーク性能は238Tflopsなんだろうけど(FP16)、計算粒度が大きいんでよほどタスクが都合のいい
サイズでないと無駄が大きくなってしまう、と。
17万円のThreadripper 3960Xで5Tflops
11万円のRTX 3080で30Tflops
DL専用ならやっぱRTXでは
まあCPUの汎用性も捨てがたいけど
昔よりCPUの並列化が進んで差が縮まってるから悩むな
[RTX3090]
CUDA Core : 35.7Tflops
TensorCore : 285Tflops
RT Core : 69Tflops
これだけポテンシャルがあるのにDLで使えるのはCUDAの35.7Tflopsだけ
なんか虚しくなってくるな
ゲーム用に売れてるおかげで安く買えるわけだから仕方ないと思わんといかんのか
seq2seqのembeddingレイヤーに事前学習させたword2vecの重みを用いるとき、デコーダの文章を生成する合図につかう<EOS>の取り扱いはどうすればいいんだ
word2vecにEOSを学習させてベクトル化しなきゃいけないんだけど、学習データの最後の行に適当に付け足しとけばいいのか?
それとも学習データの行末すべてにEOSを付け足せばいいのか
word2vecをembeddingレイヤにぶっこんだけど、リソース不足でバッチ数を下げざる負えなくなった
ヒカキンの持ってる1tbメモリmacが憎い
>>116 「word2vec 追加 学習」で検索してみるとしあわせに
>>117 あいつそんなものもってるのか!
そうそう
自然言語の機械学習って
なんかしらんが(?)最後の段階あたりでくっそメモリ食う
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw
>>104 AI ではFP16 じゃ使い物にならないから、bfloat16 というフォーマットが出て来た。
bfloat16 形式は、符号ビットが 1 つ、指数ビットが 8 つ、仮数ビットが 7 つ、暗黙の仮数ビットが 1 つの [1:8:7] の形式です。これに対し、標準の 16 ビット浮動小数(fp16)形式は [1:5:10] です。
>>119 入力がおおおおおいと何をどうやっても最終段階でメモリくっそ食うのだが
gpuで解決できるのんけ?
だとしたら大発見w
>>123 どこでやっても電気代は誰かが払っている
gpt-3は国内の研究機関だったら訓練不可能かな
設備的に
メモリ食いすぎるし、バッチサイズ小さくしたら会話にならなくなったのでword2vecを組み込むことは断念。
ただこのままだと、語彙数が少なすぎるし、だれか名大会話コーパス以外でいい会話コーパス知ってる人いません?
できればURLも欲しいです
赤外線撮影って昔流行ってたけど、普通の写真と赤外線写真を学習させれば、写真から下着を透かせるaiが出来上がるのでは?
赤外線撮影って昔流行ってたけど、普通の写真と赤外線写真を学習させれば、普通の写真から下着を透かせるaiが出来上がるのでは?
>>117 周辺まで含めて800万円と言うから気狂いだな。
というか羨ましすぎる。
ヒカキンの動画って初めて見たけど人を惹きつけるテクニックを持ってるね。
赤外線に何を求めるかだろうなぁ
マンモグラフィの写真は嫌という程見たが
ちっとも興奮しない。まぁX線写真に欲情
するのは立派な変態だと思うが
昔 hirax でやっていたMR/AR技術を
使った巨乳Vision(生乳テクスチャをマッピング)
は是非実用化してもらいたいものである
>>130 普通の写真に写るものに下着の色・形・柄と相関のある情報がないから単に学習データで過学習されるだけ
>>130 赤外線「風」写真は作れるだろう
本当に着ている下着とは全く関係なく
>>136 これをなんちゃら坂46だのの写真に使えば売れそうじゃないか?
youtubeでPhotoshop使ってアイドルの下着すかしてるのがまあまあ再生稼いでたし、ヒカキンつぶせそうじゃね
悲報、ついにAIバブル崩壊
【技術】AIが衰退期に 機械学習エンジニアが職を失う [雷★]
http://2chb.net/r/newsplus/1599463955/ 今からai研究してる大学を受験しようってのにどうすればいいんだよ
露頭に迷うのは「自分を機械学習エンジニアだと思い込んでいる単純作業者」だろう
別にちゃんと勉強すればいいよ
学んだ統計もプログラミングも潰し効くでしょ
数学や物理の人気が落ちてるならそっち行くのもいいぞ
CSより普遍的だからね
コンサルかな。この世の全てをコンサル出来る。
あ、女心は無理だな
物理はメーカーの研究とか行ってたよ
半導体とか電波とか
>>147 コンサルみたいなチャラいものに思考が行く時点で物理学科にうからんか、
うかっても卒業できんと思われ。
>>150 ワイの頃は研究所目指して玉砕してSIerに行ってしまうのが多かったな
ロスジェネだもの
データーサイエンス科とか作っちゃった大学はどうすんだろうね
そこで習いそうなことは数学科や物理科が上位互換してるし
電気工学も元祖データサイエンスぽい気がするな
電気工学科もいいと思うぞ
seq2seqにattentionつけたら全然損失関数が下がらなくなったんだけどこれって実装方法間違えた?
誰か実装させた時がある人教えてください。
いままで30エポックぐらいで済んだのが1000ぐらい必要になってる
長い文章に対する精度はいいけど短い文が来ると同じ単語を連発して無限に繰り返すんだけど、どうなってるんだこれ?
sklearnって毎度fitしなきゃいけないんですか?
kerasでgrad-camやろうとしたんだけどsequentialモデルじゃだめってほんと?
>>162 気がするだけで奴らが日本のモノ作りを支えてきたわけで、CSもDSも分野が違うからってバカにしたらいかんと思うのよ
>>164 それはハードだろ、DLはソフトだが、論理のすり替え失敗
そうかな、制御の話とかソフトじゃないかい?
まー、言いたいことは機械学習が突然出てきたわけじゃ無いから、ブームが去っても機械学習を支える周辺分野も勉強しておけば食えるでしょう。
社会統計なりwebサイトのアクセス記録なり装置の稼働データなり、各分野の何らかのデータがあって初めてそれを分析したいという動機が生まれるのであって
そういう応用分野の専門を持たない純粋データサイエンティストというのは極めて高度な研究をする場合を除いてほぼ無価値なんだよ
そういう意味ではサイエンティストいうよりもデータエンジニアかな
lstmの出力次元数256って少ないのかな
512まで上げたほうがいい?
科学的手法そのものがdata-drivenだと思うんだけど、data scienceって何なんでしょ?
>>171 データだけ見て現実を見ない泥縄なのが味噌
広告やマーケの昔は、データ見ずに勘と思惑で企画立ててた人達がデータ使うようになったという理解
>>173 それはデータサイエンスっちゅーかビッグデータ()とかいうムーブメント()のほうじゃね?
>>174 ビックデータの延長にデータサイエンスが来てるんじゃね
リクルートとかとか
×ビックデータ
○ビッグデータ
×ザ・ビック
○ザ・ビッグ
?ビッグカメラ
○ビックカメラ
県内屈指の秀才とかならまだしも
そんな無理して大学に行かなくてもいいだろう
経済も技術も日本は行き詰まる
高卒で料理人とか美容師とか土木とかそっちに行けばいいんだよ
複雑な動作に知識、推論、創造力が必要で
尚且つ速度が問われるような仕事に関してはAI+ロボットで対応しにくいだろう
今の若い奴は親元で金貯めて家を建て直したり、家を買ったり、安い土地でも買って暇な時に野菜でも作ってた方がいいだろ
仕送り+学費なんかに投資するゆとりがあるのか?
日本がトップに君臨していた
おっさん、爺さん達の時代じゃないんだし
>>177 黒船来襲して外国人に使われる日本人の絵が見える
>>178 意外と日本人に使われるより外国人に使われる方が幸せかも知れないよ?
中国に占領されたら困るよお
子供埋めなくされて徐々に漢民族に置き換えられる未来
tensorflowをインポートしたりするときになんか英語がめっちゃ表示されるけど、どうすれば表示しないようにできるんだ
機械学習に限らず、大多数のプログラマは提供されたソフトウェアを組み合わせてるだけじゃない?
OS、コンパイラ、RDB、webフレームワークとか。
高給取りではないけど普通に食べていけるかと。
>>186 それらを開発している人達もいるしスイッチとかストレージとか基地局とかの制御ソフトを作っている人達もいる
医者に例えると研究する人と臨床医みたいな感じかもしれない
新しい治療方法を開発する人と
それらを選択して使って実際に患者の治療をする人
よく見るやりとり
発表者「ディープラーニングを使って売上〇〇円達成しました!」
質問者「ルールベースのような単純な手法を使うと売上はどれくらいなの?」
発表者「わかりません…」
おわり
その種の失敗談は普通は表に出てこないからな。
表に出してる企業があったら結構信頼できる企業と思っていい。
>>190 そら、やってみないとわからんじゃろ>単純ルールベースだとどうなるか
「(これまで、担当者のカンと経験でしか)やってみたことないからわからない」は正直じゃろ
>>195 DL有りきが問題って事だと思う
ルールベースの方が良い結果を得られるならそっちを採用するし
比較しないでDLを選択しているのはDL有りきって事
>>196 まあそうなんだが
ちゃんと比較検証しようとおもったらマンドクサがる・とりまはやりにのってみよう
でやっちまうのが
世の中のおおぜいらしいぞ
いちいちデータ分析してルール作るのが面倒臭いから機械学習にぶっこむんだろ?
真面目に比較検証する時点で意味ない
大抵のビジネス課題は最適化よりも事象の理解の方が重要なわけで、最適化に心血注げる数少ない問題くらいはエンジニアに俺スゲーさせてやれよ
おれらでもつくれる程度のルールベースvs黒魔術状態の深層機械学習
ファイッ!
>>200 もっと利益が出る方法があるかもしれないのに?
利潤追求しないのは企業としてどうなのか
真っ当なDLプロジェクトはルールベースでやるのが面倒だからDLするのでは決してない
パラメータが多すぎたりそもそもルールを作るための理論が整備されていない分野だったりするせいで現実的な工数でルール作るのが不可能と判明しているか、
やれる限りのルールベース対応をしても全く要求精度を満たせなかったという実績があるか、どちらかが大前提
面倒なだけで現実的な工数でルールが作れると分かっているならその方がコスパはいい
>>202 追求する価値のある課題ならもちろん追求すべきだね
ただ実際問題として、そこらへんの企業がDLのPOCをやるために無理矢理捻り出した課題にそこまでの価値があることなんて稀だ
大抵のDLプロジェクトはDLを使って成果出したという実績を作ることが目的でやるわけで、やった時点で目的は達成されてるんだよ
AIも衰退期に入ったということだから、そういう冗談みたいなプロジェクトも減るのかな
>>204 そういうのなら長続きしなくなるのは目に見えているね
データサイエンティストも失業することになる
ルールベース以上の成果が出るのってもうGAFA並みのデータと技術がないと無理だし
日本企業じゃ絶対に無理だと分かる
無理なら実務ではDL使う必要ない
研究して実運用に耐えられるようになったら使うとか
GAFAみたいな所と提携したり委託したりサービスを買ったりした方がビジネス的には良いかも
>>206 今どんどん失業してるみたいよ
まあバブル崩壊しただけなんだけど
>>202 利益出すには100億円くらい投資が必要ですとか平気で言い出すのが今のDLだぞ。
>>212 なるほどなっとくw
たしかに山師だなwwwww
ルールベース 論理演算
DL 抽象演算
画像認識のような人智ではルールを構造化出来ないタスク以外、ほとんど前者で間に合う
特にビジネスユーズはそっちの方が向いてるし
判断の前段階の状況認識でDLの出番はけっこうあるけどな
サイト参考に乗ってるネットワーク図参考にしようと思ったんだけど
seq2seqでembeddingの後にbatch normかませるのってなんでだ?
lstmにbatch normかませるのは一般的じゃないって聞いたんだけど
いわゆる普通の業務システムだって広義のルールベースシステムだろ
そう考えると殆ど全てのビジネス課題にはルールベースが適していると言える
まあ言葉遊びはともかく、DLをやるために適した課題を探すという状況が変わらない限りは一過性のブームで終わるのは確実
既存のプログラムとの比較と言えばよかったのに(笑)
DTreeのアンサンブル学習の方がDLよりいい結果をだすとかあるんじゃないか?
アンサンブル過大評価厨はデータセットの過学習を見逃してそう(笑)
>>226 kaggle?の上位に多いんじゃない?
kaggleは過学習についてガン無視してるからねえ
そう言うゲームとして考えると面白い
kaggleはゲームだよね
あんなに綺麗にデータが揃うことなんてない
まあ役に立たなくはないけど
実際にデータを取ったからkaggleに出てきているわけで「あんな綺麗に揃うことなどない」ではなく綺麗に揃えるようなプロセスを各企業が組まなければならないというのが真理
そこまでのお膳立てができるような優秀なデータドカタがいるんだったらモデル作成もそいつにやらせたらいい
そこらへんの自称AIエンジニアよりよっぽど仕事できるよそいつ
リアルドカタの下位互換であるITドカタに
どこまでやらせるつもりだ
消耗品にも限りがあるんだぞ
データ処理は楽でしょ
もっとシンドイ開発沢山あるぞ
とりあえず、このカード明日までに読ませておいてくれ
誰か機械学習を用いた製品の品質保証に詳しい方はおらぬか…
企業として初めての取り組みで前例がない
とにかく免責事項山ほど並べとけとかいう乱暴な意見が幅を利かせてる状況
かといってどうすべきか自分でも解がなくて胃が痛い
同じような悩み持ってる人いませんか
「汎用人工知能なんてできっこない」Yun LeCun教授 FAIR
https://community.exawizards.com/aishinbun/%E3%80%8C%E6%B1%8E%E7%94%A8%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD%E3%81%AA%E3%82%93%E3%81%A6%E3%81%A7%E3%81%8D%E3%81%A3%E3%81%93%E3%81%AA%E3%81%84%E3%80%8Dlecun%E6%95%99%E6%8E%88/ >「汎用人工知能(AGI)の開発が可能だと主張する人は、何か思い違いをしている」
>「そもそもAGIという概念自体が間違っていると指摘」
>私の考えでは、今日の学習方法でAGIに到達することはありえない。
>それは人間に”汎用知能”などないからだ。
>実は人間の脳は非常に特化されている。われわれの知能に汎用性があるように思うかもしれないが、われわれは多くのタスクの処理において、非常に下手だ。
>コンピューターなら上手にできる多くのタスクにおいて、人間は非常に下手だ。
>人間の特化型知能に似せて人工知能を作っても、それは特化型知能でしかなく、
本来の「汎用型」が意味するような「なんでもできる知能」を開発することなでできない
同教授によると、人間の知能も、”地球”という人間の置かれた特殊環境にのみ特化して進化してきた知能で、汎用知能ではないと主張する。
>>238 ケイタイ系銀行なんかが最近宣伝してる
AI投信!的な商品の
免責をみてみたらどうじゃろう
あるいは
顔認証アルゴリズムとか、自動運転の
保証規約とかどーなってるんざんしょ
手元にあるスマホでも品質保証はないわけで
不具合でよくアップデートとかしているし
時々爆発するのもあるし
何%以上の安全性とかなら数字はできるかもしれないが
絶対ということはない
世の中100%とか求めすぎ
実際には外的要因があるにしても、モデル上で厳密に論理的に100%は可能
モデルの時点で99.99なら1万人のうち1人は死ぬわけで、それをごっちゃにしたらダメ
前処理は営業の能力ないと無理
事業部を横断して調整して
データ分析で必要だからアクセス権くれとインフラや総務系に頼み込んで
プレゼンしてようやく許可得たと思ったら
現場のエンジニアに仕事の邪魔にならないレベルで
スキーマやそれぞれのカラムの使い方教えてもらって
ようやく必要なデータがわかり
その後負荷のかからないSQLを考えて作って
取得してデータ暗号化してクラウドに上げるバッチ作って
それを反感買わないように運用の中で仕込んでもらって
ようやく分析の準備ができる
100%正解出さなきゃ死人が出るような用途に機械学習モデルからの出力をそのまま使おうとするのが間違いなんだよ
そのまま使わなきゃいいだろ
最悪でも人が死なないようにルールを適用すりゃモデル上は100%死なない
人間にだって法律があるように、最終的にはルールベースの制御は必要
>>241 品質保証=100%だけじゃないでしょ
3σとかあるじゃん
結局法律とかルールとか超えなきゃいけない壁が多いからなあ
無難ところだけ実用化というか
>>248 ルールでも100%はないわ
当てはまらない例外は起こり得る
人の組織でも監視システムはある
国の三権分立もそう
立法、行政、司法
今のAIシステムは自分で判断して自分で実行してチェック無し
昨日品質保証について質問した者です。色々どうもありがとう。
製品は、人命に直接関わらないけど、間接的の間接的にくらいのレベルでは関わる笑
ソフトの品証に掛けれる予算は外注費基本的にゼロ、社内リソース3人月くらい。
皆さんの意見頂いて
製品で実現できるサービスを、誤検知があってはならない順にレベル分けして、上位のものに冗長性というか、フェイルセーフ機能・仕組みを追加する
→その安全性への取り組みを謳った上で、下位のもの含めてサービス全体機能はどしたって100%にはなり得ませんよと説明するくらいかなぁと思ってます
私は営業の立場なんで、「どしたって100%なんてならないんだから!そんくらいわかれよ!しょーがねーだろ!」
みたいな技術の投げやりな姿勢に腹が立って。そんなもんこっちもわかっとるっちゅーねん
品質保証は、予算次第
たいていは予算がないから、品質は悪い。
サービス残業してまで改善する人は、滅多にいない
>>256 誤りが起きたとして誤りを検出できるのかな?
AIで判定したものが誤りである事を検出するには正解がわからないと誤りであると検出できなそうだけど
正解は不明だけど誤りは分かる?
通信とかでのチェックサムみたいな誤り検出は送る側が正解を知っているから可能だし
>>257 そだよね、技術もコスト掛けられないジレンマから投げやりな感じで言ってるだけなのかもね
保証レベルが下がれば、お客様へのサービス紹介内容も変わるから沢山コスト掛けて欲しいとこなんだけど
ちなaiプロダクトの品質保証に金かけるってどういう感じなの?テスト用のサンプルデータ収集&テスト時間?
ハードウェアならバラつきサンプル山ほど作るとか加速試験やりまくるとかイメージつくんだけども
>>258 あんま詳細に言えないから申し訳ないんだけども
誤りをトリガにするんではなくて
正誤関係なく作動するフェイルセーフ機能を入れるようなイメージ
ただそれを入れると明確にコストに跳ね返るから一部機能のみ&入れたとしても100%安全性の担保はできない
というイメージ。イメージで申し訳ない
>>252 その指摘はズレてる
モデルに当てはまらない事象ならモデル自体の欠陥だろう
100%当てはまるモデルを作ることは不可能だが、モデル上で100%を実現することは普通に可能
>>254-255 ちょwwwおまいらwwwwwわろっしゅwwwwwww
>>261 「モデル上で100%」とは「モデルが確実に判定可能なデータしか入力しない」ということか?
その判別モデルすら100%は不可能だから「モデル上で100%」も不可能だぞ
>>263 時速120kmに達した瞬間に自爆するルールをモデルに組み込んであれば、前段階のAIがどんなに馬鹿な判断をしようが時速120kmを超えることはない
モデル上はな
>>263は時速を100%正確に計測できる保証などなく誤計測は避けられないのだから120kmを超えることも完全には避けられないということを言っているわけで
で、時速計測器が正確だと保証するために新たな装置を用意してもその装置がまた不正確かもしれず無限ループになる
>>265 それはモデルが測定装置の誤差を考慮していないからで、その必要があるならモデルに組み込んだ上で適切な閾値を設定すればよい
モデル上既に重大事故を起こす可能性があることがわかっているのと、モデルに組み入れられていない要因により事故を起こす可能性があるのは別次元の話だ
現実世界で発生する誤差は有限の範囲に収まることが保証できないのでどれだけ余裕を持って閾値を設定しても漏れることは避けられないよ
法律でも予見可能性が問題になるからな
予見可能な問題には対応できるようにしないと
じゃあ何も作るな
問題が起きるのは必ず予見できるし
問題を必ず予見できるなんてわけがない
予見可能なのはあくまで予め想定している問題だけ
想定していない問題はそもそも予見しようとすらしないのだから
リスクを負わないとリターンは得られない
何かしようとするとリスクはある
それをどの程度減らしたり対策したり許容するかのバランスになると思う
下手すると事業継続できなくなる
また別の仕事してもいいんだけどね
>>271 その分野の多くの専門家が予見できるようなものは当然対応していないと能力を疑われることになるけどね
白黒つけるのは難しいと思う
多くの専門家がよそくできないものがやっかい
福島の堤防の高さとか。もう少し高くすればメルトダウンしなかった
これは誰の責任? 東京電力? 予測しないことを認めた国? あるいは
運が悪かっただけ?
>>275 個別に違うから詳しく事実を調べて判断する事になるんだろう
その高さに決めた経緯とかその時に知られていた科学的な知識とか
見直しで高くするべきと言われていて放置していたとかなら放置していた所に責任があるんだろうし
その決定過程などに問題がなければ責任を問えないんだろう
責任を負わせても元には戻らないから
次に同じ事が起きないように改善するしかない
不特定の人が使う製品で機械学習モデルの外的妥当性を保証するのは無理だろうね
だからあんまり影響ない無難なところしか使えなくなるんだよなあ
なかなか難しいね
>>275 東電、他にも初期の発電機を廃止する、非常用電源車を高台に用意するとか
10億ケチってあのざま
あれだけの人災を起こしおいて誰も逮捕されてない不思議
みんなで汚染されればこわくない!の発想なのでは
核実験しまくった連中もだれもつかまってないじゃろ
>>275 そんなことより非常電源設備を地下に設置したことの方が問題でしょう
電気設備を地下に設置するなんて普通に非常識
そっちを問題にするべきで、堤防の高さなんかどうでもいい…
福島の原発は予備電源は分散して保管する規則になっていたのに
一か所にまとめて保管してた運用上の問題
だいたい、あの辺って過去100年の間に3回も大津波にあってるのに、
とことんデータを活かせない国
スパースモデリングって既存の技術に名前をつけてあたかも新技術のように言ってるよね
そういうのキライ
福島の原発か、、、、
京大反対派の連中が警告し続けているのに対し
東大推進派の教授なんかが
「君は馬鹿かね!原発は日本で一番安全な場所なんだよ!」
「wwwwwwwwwwwwwwwwwwwwwwwwwwwwww」
って大笑いしてなかったか?
多数派のボスって怖いよね
金や人の絡みでそうなっているんだろうけど、、、
あれぐらいの勢いがAIにあればな、、、
野心的な人達が減って来てるんだろうな
医療だとパロチンという事件があってな
丸山ワクチンの認証がなかなかされなかったり、今回のコロナの話も。
まぁ儒教の悪影響が残っているなぁ
>>289 原発推進派を擁護するつもりは無いが
女川の住民で女川の原発のおかげで助かった人も多い
危険な原発と安全だった原発と両方の例を挙げないと不公平
福島が女川と正反対の結果になったのは
どこで間違えたのかを検証するのが大事
>>284 シナの覇権主義についてどう思う?南シナ海はすべてシナの領土?
言うほど崩壊してる?
新規参入が難しくなっただけじゃないの?
>>291 助かったって
「安全です!」って言わす為に周辺住民に金をばら撒いたり
いろいろ免除して優遇していた奴のことか?
そういう意味だと資金援助、天下り先とか推進派は全員助かったんだろうけどね
原発は国と会社と大学が結託してやっていたんで
どこぞの事情で福島に原発を立てることになり
そのフォローに東大教授が「安全です!」と言い張る展開になったんだろうけど
平気で嘘付いて大笑い出来るのがあのクラスだよなーと思ったけど
>>292 チャイナの主張を武力で潰すことができなければ、チャイナの主張は正しいことになるでしょう
チャイナを叩くことができなければ、チャイナの覇権主義は黙認されたことになりますね
スパースコーディングって1996年に発表されたやつじゃん
AIは何時だって仕方なく壊れいくけど
騙されて棄てられた訳じゃない
>>303 それはあなたの意見であって、私の意見ではありませんね
>>305 核戦争が始まるといってんじゃないのか?
自分の意見としたくないんだろ。わかりやすい小心者だわ。
こういうやつって「客観的意見」てやつを主観的に使い出すからたちが悪い。
>>308 日本の裁判は検察が確実に有罪になると考えるものを起訴するから
起訴されたら99.9%有罪になる
手当たり次第に起訴されたら迷惑だからそれでいいけどね
ただ裁判所が形式的に有罪判決を出すのはダメだけど
>>310 それは人間が判断する時でも同様の問題が起きる
事実と法に基づいて判断するけど
事実となる証拠が不適切な場合は判決も変わる
人がやるのと同等かそれ以上の品質で過程を記録できていてそれが人間に読解可能なら構わない
「過程」これがいるのかいらないのかが今の争点
深層学習では多分過程は説明できない
「過程」がどうしても必要なシステムなら「過程」を出力する機械学習になるだけだろ。
まあ現段階では多分そういうのはうまく学習できないとは思うけど。
いやーやがてできるんじゃない?
いま 言語モデルにロジックを取り入れようとしているみたいだから
それがほとんど過大評価だっつー話なんだが。
gpt-3 のスケールで学習してあの程度だぞ。
GANって教師ありに分類されるの?
それとも教師ありでも教師無しでも、どちらでもないの?
機械学習ブームが落ち着いたらMLOpsのような話題も消えるのだろうか。
よほどの規模のビジネスじゃないとシステム投資のROIが合わないよね。
>>318 単体では上手くいかなくてもアンサンブルで良くなる事もある
コンピュータの計算力が高くなるともっと良い結果を得られる可能性もある
そういう問題じゃないような
実際のビジネスでのデータ活用においては、予測ではなく特定の指標を最適化することが目的となる場合が多いんだよ
理解できないモデルじゃ目的変数を望む方向に変化させるためにどういう施策を打てばいいか分からないでしょ
あと、最適化問題といっても現実に実行できる施策というのは定性的なものに限られる場合が多いわけ
だからモデルには定量的な精度はそれほど重要じゃないの
>>329 説明変数がわかる方法でアンサンブルしたらいいのでは?
機械学習で競馬予想をしてみたいのですが
教師あり学習の回帰をすればよいのでしょうか
まだ本読んでる最中で初歩的な質問ですいません
>>334 予想をするのはできるだろうけど利益が出るかどうかは別問題だよなぁ
>>336 >>337 ありがとうございます
>>335 普通のパソコンやGoogleのクラウドのものだと難しいのでしょうか
Pythonの本を読んでいるのですが必要なマシンパワーとか全然わかっておらず
>>338 ただで競馬の予想ソフトを教えてもらおうとしてるのかと聞いてるんだよ、馬鹿か
明らかに自分で機械学習を使って予想するって意味だろう
予想ソフトを使うという解釈にはならないと思うけどな
>>339 文盲か?お前が馬鹿だぞ
どこに予想ソフトとか書いてるんだ
子供じゃないんだから実現性のないことは言わないでほしい
当たり前すぎる
英文翻訳とかはここ最近で急速に発展してきたけど、
それですら29年までに1流の翻訳者と同レベルになれれば万々歳といったところだろう
世の中の大半の問題(9割方?)はは回帰とパターン認識で片付く
論理的思考が本当に必要なことは実は少ない
医者とか弁護士の仕事も大方は回帰とパターン認識で片付く
プログラムはチューリングマシンへの入力を作るだけで原理的には片付くはず
ああ、C++でチューリングマシンへの入力書いてるんだった
ということはPGの仕事は無くならんな
プログラムの決定版みたいのができると
みんながそれを使うようになって異端は粛清される
銀の弾丸はできるのか?
不完全性定理の意味とか言ってもわからんだろうなこいつら。
mnistが公開されて
いろんな所で使われてるのに
etlは非公開(笑)
こーゆーとこだよ
ディープフェイクでAV女優の顔を有名女優に置きかえた奴が捕まった
【社会】AIでAV出演者の顔を女性芸能人の顔にすり替えて動画投稿、 “ディープフェイク”で男逮捕★2 [あしだまな★]
http://2chb.net/r/newsplus/1601612834/ 顔だけすり替えても意味ないやん
それより動画観ててこの人だれだろうなーっていうので
女優さん検索出来るシステム欲しい
>>362 少し前の書き込みにこういうソフト欲しいという書き込みがったので関係者が来ていたのかもw
Windows でpytorchを使うには
anaconda を入れて環境構築するしかないの?
docker 経由で扱えないのかな?
公式のインストールコマンド作成ページあるだろ
windowsでpip選択すりゃいい
gpu使うならCUDA10.1か10.2とcudnnも必要
gpu古いならCUDAとcudnnのバージョンを対応させて落とさないと行けない
不安なら仮想環境作ってからやれ
pytorchはインストール簡単だからtensorflowと違ってdocker必須なほど面倒ではない
windowsのdockerからGPU使えないだろ(今のところは)
それともWSL2バックエンドじゃなければ行けるのか?
OS に直接インストールしたくないの
ぐちゃぐちゃするから別にしたい
仮想マシン経由、ていうかwsl経由しかないのか。。。
>>367 docker内でanacondaインストールしてpytorch入れればいいだけでは?
松尾豊には否定的だったんだけど
広報的な仕事を全部彼に任せるって言うのは いいのかもしれない
>>374 小規模ならGPU不要
おまえのネットブックでも、三週間かければちょっとした文豪もどきっこくらいは、できるぞ
>>375 ネットブックで普通に文章を書いた方がよくないか
google colab(のGPU)で、やりたいことは大体出来ると思う
colabは無料だと本格的に使うなら色々制約出てくるからあれは単に有料のpro版の販促だよ
>>377 文体の真似ができないやつにはありがたいのでは。
>>378 がんがれ。
全作品の文字数がとにかくいっぱいないと、うまく調教できないから、
できるだけ長生きした文豪を選ぶと良い
とだけいっておく。
>>377 学習に3週間とかかかっても使うときはそんなにかからないだろう
東証、障害の原因を特定 「自動切り替えできない設定値になっていた」
あれ結局何次請けがやった仕事なの?
中国で「5次請け」の殺し屋がニュースになってたけど
そんなところまでケチったのか?
自動切り替えは8次下請けが出した謎のフリーランスエンジニアじゃねえの
自動切り替え、俺んとこで10年以上まえに作った設定あるんだが、やり方継承されてないとかありそう
ビンゴじゃないと思うけど
ホントの本番環境でテストするわけにいかないので
シミュレーションでやったけど
本番とわずかに違うところで設定値が違ったというところでは?
東証に導入する時、本番でテストするよ
いつ設定消えたか興味深い
こういうタイミングでやるんだろうね
the-owner.jp/archives/2103
www.matsui.co.jp/news/2013/detail_0628_02.html
>>392 本番といっても外部に接続して、外部からアクセスがある状態で
テストするわけではないでしょ? 実データも入れてないだろうし
その辺の再現性が甘かったんじゃないかなあ
>>389 そのパターンか?
担当者音信不通 or 倒れて病院などで変わりまくり
仕様すらハッキリしないまま
引き継いでくれる先も見つからず
納期間際まで来て
金はいくらでも支払うからなんとかして欲しいっていう要求に
卑しくも反応した末端下請けがフリーランス達を金で吊って送り込み
今すぐなんとかして欲しいという無茶ブリにジャック・バウアー化したフリーランス達が
すべてのルールを無視して
表面上だけ上手く出来ているかのようにやっつけて終わらせ
後はよろしくで行方をくらますっていう
NGID:eK30Q5Eia
NGID:anSBz5qf0
NGID:nvX6ACm7M
機械学習って
回帰と識別分類しかないわけじゃないでしょ
極論、教師あり学習は全て広い意味で回帰と言えなくもない
データマイニングなんだかAIニューラルネットワークなんだか
言葉が色々ありすぎてよく分からないんだよな
>>399 回帰は傾向を分析するだけだけど、機械学習は推論装置を作る(与えられたニューラルネットワークのパラメータの最適解を求めるだけだけど)。
>>407 この短文にこれだけ突っ込みどころを盛り込めるのは見事
悲報 これからは量子情報通信
【東芝】「究極の暗号」サービス 米英で提携 シンガポール、韓国などの通信事業者とも協議を進めており世界シェア首位狙う[10/19] [右大臣・大ちゃん之弼★]
http://2chb.net/r/news4plus/1603081391/ 今月の数理科学は情報幾何がメイン。
まぁまぁ面白いな。
情報幾何って量子機械学習並みに役に立ってないよね。
勝手に殺すな、って来るかと思ったけど来なくてガッカリ
情報幾何は確率分布=微分多様体であることを仮定してるからあまり好きでない。
>>420 確率分布=微分多様体と見做せない事って現実的な範囲で多いの?
単純にポアソン分布とかあるだろ?
離散的な確率分布なんていくらでも定義可能
>>405 漢字にした方がパッと見分かり易いのにね
データマイニング(情報発掘)
AI(人工知能)
ニューラルネットワーク(神経細胞網)
reflextive(回帰)
>>425 漢字で覚えてると英語の論文読むのに困りそう
>>425 なんで覚える用語数を倍にしなきゃならんの
無理やり専門用語を日本語訳して漢字表記にしたものは日常的に使わない表現が多くてわかりにくいので、英語のままで理解できるならその方がいい
わかりにくい日本語訳
parameter → 母数
estimator → 推定量
generating function → 母関数
自分だけならいいんだけどね。
理解度は人によるから、議論のときに同じものを指してるとは限らないから。
ルーのごとく話すしかないね
population parameterをmleでestimateして、みたいな
>>429 昔の教授は日本語にこだわりがありすぎ
英語の方がなんとわかりやすいことか
>>432 レビューのときは英語表現を確認することはあるね
この資料の母数ってpopulation parameterのことですよね、とか。
統計用語の無理やりな日本語化も1990年代ぐらいで止まってる気がする。
情報技術学派が死んだ時期?
漢字は一文字の情報量が多いからTwitterでは欧米より有利
メリットはそれぐらいかな
Pythonではじめる機械学習購入してみた
この本って写経した方が良いのかな
どちらかと言うとコードよりは内容の方が重要?
>>443 仕組みとしてはアルゴリズムであるから
C++でもJavaでもどの様な言語でも移植して書けるという目を持って読み進めると良い
>>446 これが出来たら凄いぞ 為替予測をガウス過程でやってるんだがお勧めのカーネルある? ガウスカーネル+ホワイトカーネルマターンカーネルいろいろ試したんだが1分置きに予測がころころ変わる ちなみに1分足で予測したい まあ無理を承知で効いてるんだが Alでランダムウォークを予測するのはいろいろ検証したが無理だった ガウス過程は内挿は得意だが外層は苦手っぽい印象
AIにテクニカル分析をさせる意味ってあるの?
なんか相場に影響のあるニュースを入力にするなら意味あるんだろうけど。
それ出来たらGSやgoogleあたりがウハウハしてるはずだもんな
>>451 自動売買だよ
まあAl単独では無理で移動平均やオシレーターでAlに判断させるアルゴリズムでやってる
それなら勝てる
ランダムウォークに強いガウス過程なら勝てるかもって思ってたけ難しいね
勝てるということは、テクニカル分析には意味があるということですか。
現実は高速回転で計算してるだけで
時間差で勝ってるだけの気がします
>>455 意味が有ります
1分足のテクニカルで勝てますから
>>457 相場は時系列ではランダムウォークではないですが時系列を無視するとランダムウォークで間違いないです ブルックシェールズ方程式を見てみなさい
>>459 ちなみに移動平均ーcloseの価格で見てみなさい
ランダムウォークになっています
>>462 どうでもいいだろ そんなん
酒に酔ってるから勘弁して
10位の利益を5回くらい続けて
200位の損失を出したら
トータルでは150位の損失になるよな
価格には全ての情報が反映される説と
そうじゃない説があったような
反映されないなら反映されるまでの間に適切な取引をできたら反映された時の価格変化で利益を得られるはず
具体的にはインサイダー情報を知っていて売り買いする
インサイダー取引はルールで禁止されているけどな
>>465 それはダウ理論ね ランダムウォークには意味ないから
ランダムウォークを極めたヤツいないの?
為替相場なんてブラウン運動だぞ
カーネルを教えてくれ!!!
お前ら自称かい しょっぺーの
俺はデータさいえンチストだから解はもってっるがな ショッペー奴らやな 分かってはいたが
まあいい お前らがゴミ屑だと分かっただけでも意義はあった
>>466 企業の業務提携とか資本提携とか明らかにランダムウォークではないだろうけどね
ランダムウォークでちょこちょこ稼いでも大きな変化で大損したら利益は無くなってしまう
本当にランダムウォークなら時間を決めて売り買いすると損益ゼロになるんじゃないか?
取引手数料分だけ損するだろ
買った時点の価格から等しい確率で価格が上下するだろうから損失も利益も多数回繰り返して足し合わせたらゼロになるんじゃないか?
何度も測定して誤差を小さくするみたいな感じ
デルタヘッジで分散でかい時に利益出るようなポジション取るってのが一応の解なわけだが。
ポートフォリオ理論はある
組合せて同じリスクでも期待リターンが大きくなるようにする方法
〇 株価変動はランダムウォークである
X 株価変動をランダムウォークと見做している人もいる
株やってる人って個人でやってる人?それとも仕事で?
もういいお前ら 機械学習なんて子供のおもちゃにすぎないだろ 俺が十分分かってる
為替の未来すら予測できない事なんてな
ハァァ お前がデータの頼り過ぎた人間の末路だわ
俺は解を持っているwww
ばかえの一つ覚えのLSTMだの Bertだのあほの極みだな
久々にオライリーの本読んでるけど
ついにまともな訳になって来たんだな
「出たー!!意味不明!!」とか実況しながら読むのが醍醐味なのに
この分野の発展がいろんなところに浸透している
機械学習というのはあくまで何らかの仮定をした上でその仮定の枠内で最も妥当な結果を推測しているに過ぎない
仮定が間違っていればどれだけデータを突っ込んでもまともな結果は出ない
そして為替変動の予測にどんな仮定を置けばいいかなど誰にも分かっていない
>>490 画像でも音声でもその仮定は誰にもわかっていないが
それなりの性能を出している
>>489 なってないよ
機械翻訳使って手直ししてるだけ
>>491 それは流石にディープラーニング以前の画像認識や音声認識手法を無視しすぎでは
>>493 仮定を置けるんならディープラーニング以前の画像認識や音声認識手法が圧勝だよな
頑張って株価の一定期間のチャートをローソク足も含めて辞書型にして
この期間の前にこんな変動してたら買
い
既に株を持っているなら、この変動をしてたら売り
とかでクラス分けか
これだけだとバイオプになっちゃうな
上昇する確率に購入額を相関付ける
後はBERTでも何でもいいが、FRBや各国首脳や大臣の発言で株価に繋がるものがあったら
とりあえずアラートをPC画面に表示する
将来的にはそれも売買に繋げる
>>454はそういうのやりたいのか
でも大統領選とかなら自動売買よりとりあえずニュースとチャート見てたほうがいいかな
対象の各標本を識別できる空間での位置によって分類する
その境界線を見つけることが分類の学習だと思う
理想的なコインの場合はどう考えるの?
P(head) = P(tail) = 0.5
で、どんなに頑張って条件付けしても変わらないけど
>>501 何をする目的かで変わる
出た結果を分類するのと
結果を予測するのとで違う
>>502 期待値は0.5で固定なわけだけど、目的によって変わるというのはどういうこと?
>>503 目的は何をしたいのかという意味
コインの裏表が0.5の確率で出るという事実や仮定があって
それで?
>>501 目の前にあるのが理想的なコインだと分かっているならそもそもデータを取って何かする必要などない
>>505 計算手法の妥当性を検証するために、既知のパラメータに収束するかといったシミュレーションはよくやるよ。
>>504 目的とは無関係に予測モデルは P=0.5 に収束するよね。
目的によって変わるというのは何がどう変わるのかなと思って。
>>492 いやいや2〜3年前発行された本より随分良くなってるわ
機械翻訳の精度が上がったんだろう
昔の奴は英文をDeepLに突っ込んだ方がいいぐらいだが
今出てる奴は内容はともかくまともな日本語になってるわ
>>508 コインの出る目を予測するのか
出たコインの表裏を画像などをもとに分類するのか
など
コインで何をしたいのか
0.5の確率で表裏が出るなら予測は難しいんじゃないかな
分類するなら表だけにある特徴を見つけたら分類できる
>>509 問題設定そのものが変わるって話ですね。理解できました。
機械学習で株や競馬に勝てるわけ無くない?
結果を決定する要因が毎回同じとは限らないし
そういうところもベイズで扱えるの?
株は機関投資家がコンピュータを使って売買している
競馬は独自の方法で利益を上げて税金計算の時に外れ馬券が費用になるか裁判になったのが複数ある
機械学習は過去のデータから何か規則性を見つけて予測を行おうとする
見つけた法則が未来の予測に役立つかは問題による
競馬だといけそうな気もするがFXなんかは無理と言われてる
とにかくあてずっぽうより精度が良いなら何か役立つ法則を見つけられていることになる
あとは損益分岐点を超えられるかどうかだ
>>513 ベイズって何か理解してる?
ベイズ統計の枠組みでの機械学習では何らかの考えに基づいて確率モデルを設定し、実測データを最も良く説明するようにモデル内パラメータを調整する
なのでモデル自体が妥当なものでなければまともな結果はでない
要因すら分かっていない事象を上手く説明できそうな確率モデルを設計するのは容易ではない
>>517 八百長があるかどうかは関係しない
単純に過去のできごとと未来との間に相関があるかどうかで予測可能かどうかが決まる
八百長があった方がむしろ予測しやすい可能性もある
競馬予測って馬のデータ(走行回数)少ないのに成り立つものなのかな?
中央だと生涯の出場回数が10回以下の馬がほとんどだろうに
照応解析の精度を上げたっていうけど
64.08 → 64.89 とほとんど変わらなくて草
https://arxiv.org/pdf/2011.00948.pdf >>415 情報サンクス
今買って読んでるけど胸が熱くなってきた
興奮して今夜は眠れそうにない
>>518 お前カスだな ベイズ統計学なんて何年前の話だよ
今はガウス過程がすべて NNなんてパラメータ解析したところで意味なし
カスがベイズ統計学を語んなよw
LSTMやAtenntionは言語予測しか通用しない
bertもだ まあ俺はMI専門だから勝手にやってろって感じだな
ちなみに機械学習で株予測をする奴がいるがあれはカスだ 移動平均とオシレーターのパラスタで勝てる
負ける奴はプログラム能力が無いだけ
>>528がどう間違っているか説明しておくと、
・ガウス過程では誤差分布が正規分布に固定され、各点の相関は自分で決めた分散共分散行列に従う多次元正規分布の範囲内でしか動けないので「ガウス過程がすべて」などとは言えない
・ガウス過程はベイズ統計の枠組みで生成された確率分布の1つでしかなく、ベイズが時代遅れと言いながらガウス過程がすべてというのはおかしい
普段ROMってるけど
喧嘩を止めてもっと優しく教えてくれるといいなぁ
色々と参考にしてます。
miてなに?
mutual information なの?
研究目的のと金目的のが同居してるからな
金目的のは他人を叩くし手の内は垢さんさろ
研究目的のと金目的のが同居してるからな
金目的のは他人を叩くし手の内は垢さんさろ
あれ?変なタイミングでenterしたら
奇蹟の投稿になったっぽい
>>532 ガウス過程はガウス分布も使うが他のカーネルも使う だから正規分布の空間でしか動けないのはおかしい ベイズ統計学ってベイズ推定の事を言ってる?
確率的生成モデルの観点からベイズもガウス過程も一緒だと思う だがノンパラのモデルをベイズ統計学で予測出来るか? ニューラルネットワークもガウス過程もノンパラモデルを予測するためのアルゴリズムだ そういう意味でベイズ統計学とガウス過程は違うと言った
>>534 マテリアルインフォマティクスの略だ 小文字だから分かりにくいがMIという
どうやらベイズ統計学はクソだということは分かったらしいw
ベイズ統計学で何が出来る
せいぜいモンテカルロくらいしかないからな
馬鹿かよ モンテカルロなんて乱数うって積分するだけだろ アホかよ 子供のおもちゃ鉄砲だろ
>>532 てめえいつでも反論あるなら受けて立つぜ カス野郎
このスレにはカスしかいない
これが日本の現実だ 米中にはもっと優れたデータサイエンティストがいるぞ
まずは為替もランダムウォークで動いてるからその理論を教えろ まあ解が分かってるのはこの俺くらいだな アホども
>>532 為替や株価のの動きをお得意のベイズ統計学とやらで説明しろや 出来もしないくせにカスが
事前分布 ゆいど関数 事後分布で説明出来るんだろ
カス が 殺すぞぼけ
マジで為替の質問に答えられなかったら殺したいんだが ファラリスのオギュウとかどうだ?
日本人が理解してる機械学習なんて そんなもんなんだよ 為替の動きを説明しろや ブラックショールズ 方程式を用いてもいい 意味が無いがな アホどもの巣靴だなwwww
>>545 株価や為替がランダムウォークで動いてるというエビデンスあるの?
海外行けば?
日本人日本はダメだ文句言いながら
日本にいてなにしてんの?
予想出来たとしてみんな同じ理論で予想すると儲からないっていう
そんな不安定なもんにいきなり大金を掛ける訳にもいからないから
試しにちょくちょく妥当なところを攻め行くうちに
有利だったはずの理論がそうでもなくなり、、みたいな
最終的に得もしないが損もしにくいような降水確率50%的な予報のソフトを
高い値段で売った方がいいってことになるんじゃないか
簡単に儲かるなら
openaiやdeepmind辺りがやるはず
降水確率に限って言えば
降らない方の確率の方が高いので
いつも振らない方にかければトータルでは
必ずもうかるという古典的な疑問は?
株でも為替でも上がる確率と下がる確率が
同じでなければ、どちらかにかけ続けると
トータルでは必ずもうかることになるが
そりゃあ先進国の株式市場は細かい波があっても長期的に見れば右肩上がりだと信じているから世界中で積立投資が行われているわけで
1.トレンドは必ず上昇
2.ゼロサム
3.ランダムウォーク
どれが本当?
>>559 ケコ━━━━(・∀・)人(・∀・)━━━━ン!!
>>556 景気は波のようになるからその時に上昇していたら全体的に上がるけど下がる場面なら全体的に下がる
時間効率も考える必要がある
1年で100万と1日で1万の評価は違うだろうし
支払期限とかもあるし
>>553 簡単じゃなくても儲かるなら働く必要無いので、
ヘッジファンドに年収億で雇われてるようなデータサイエンティストでも
回収率1.01ぐらいしか出せないのだろう
リターンが低ければ、利益を出す為には巨額の原資が必要
結局、
あると見せかけた技術を教える、てのが儲かる訳だ
>>563 んだべや
株だのFXだのは要するに逆MANINNGENゲームだから。。。
現在あてはまるさいつよ理論をつくったところで
周囲がそれの存在をもんやりとでも認知して
大勢のっかってきた時点からは、ボロ負け多数派理論になるっていう
>>552 ほんとこれ
介入なしで株価変動が予測できたとしても、
その予測を使った介入で利益出せるかどうかは別問題
儲かる(勝ち過ぎる)とルールがかわります
場合によっては都合良く逮捕されます
國には絶対勝てません
株の底値買いなら、明地文男の3点チャージ投資法がよい
ただし、日経平均が3割下がるのは、数年に一度ぐらいしかない。
そこが底値だけど、数十年に一度は、そこからさらに3割下がる
つまり、半値になる
>>565がイイ!!(・∀・)こといったった!!!
>>556 トレンド即ち移動平均の周りをランダムウォークしてるイメージだよ 移動平均ーcloseしてみ正規分布になってる
>>565 株価は予測出来ない だから移動平均を使う移動平均は予測ではなく結果にすぎない すなわち移動平均がのゴールデンクロスがだましか騙しじゃないか判定することが一番重要
>>552 ランダムウォークは予測できない
だから予測はしない
ただしトレンドは発生する訳だ
トレンドで順張 レンジだったら逆張りすりゃ勝てる
>>552 何度も言うように予測したらだめ
トレンドが発生したら順張 レンジだったら逆張り
それだけ トレンドが発生したら逆ポジは損切りはしようね 自動売買なんてこの板の住人だったら簡単に作れるだろ 損切りは機械的にやるそれが鉄則
>>570 ごめん closeー移動平均だった 昨日から高熱がでて頭がボーとしてる コロナかも
上の方でやられてたベイズ過程ベイズ統計学やらなんのことがわかんない
だれか教えて
ベイズ統計学はベイズの定理を使って条件付き確立を求めるだけだ 尤度関数 事前分布から事後確立を求める いわゆる検定を使う推定統計学と異なる点は標本を必要としない点 つまり考え方が全く違う 事前確立に新しい情報が加わると事後確立を更新しそれを事前確立にする 新しい情報を加えていって確率の精度を高めていく手法 間違ってたら補足してくれ
>>571 コロナ感染者のグラフ観てて思うけど
あれも複数の移動平均とってサタンクロス観たら良いのにな
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
強姦と窃盗しかしない!
半島へ帰れよ犯罪者め!
クソチョンw
ガウス過程は機械学習の手法の一つ NNとの大きな違いは任意個数の入力x1、x2・・・xNにたいしf(N)の分布をガウス分布と考えること そうすると通常のNNに対しデータの曖昧さ つまりバラツキを表現出来る 一般的な線形回帰ではy=wφで表現するがガウス過程ではyの分布は共分散行列のみできまりK=λ2φφTで決まる
これを平均0の正規分布と考えるとk(xn,xn')=φ(xn)Tφ(xn')というカーネル関数で表される
カーネル関数の内積だけで計算することをカーネルトリックという カーネルにはいろんな種類がありそれぞれのカーネルを組み合わせて使えるのでいろんな予測ができる 詳しく知りたければガウス過程と機械学習という本を読んでくれ
>>580 GANはと言われもGANだ
としか答えようがない
>>575 これ読め
データ解析のための統計モデリング入門 久保 拓弥
手法が通じないのは小型株の話だな
あれはインサイダーやそこに住み着いてるヤクザが動かしてるからな
やるなら日経レバかドル円 ポン円だよ
>>584 ポン円は値動きがあるから取れる
ロンドンヤクザが動かしてるがテクニカルには忠実だよ ただし瞬間的に動くことも多いがあれは意外と移動平均に忠実に動いている 逆にいったらドテンすれば良い そういうプログラムを仕込んである
ヘッジファンドが株為替をAlでやってるのは個人のストップ狩りやオプション価格の売買の攻防の売り買いをAlでやってるだけだと思う
>>586 つまりLSTMとかは使わずBERTでネガティブかポジティブか判断し瞬間で売買するアルゴリズムだ
その後上げるか下げるかはヘッジファンドの裁量だな どちらにせよ個人のストップを刈りながら上下するから乱降下する
>>587 バートとか自然言語のアルゴを取引にどう使うのですか?
煽りではなく初学者なので教えて下さい。
>>588 ヘッドラインの情報をBERTで解析してるってこと
だから瞬間的にトレード出来る 後は遅れて買ってきた奴らに売りをぶつければいい
>>585 ポンド円に入れ込む人が存在することができる、というのは新鮮な感動を覚えます
もう一度ポンド円・ポンドドルを勉強することにしました
ポンドはトレンドが発生しやすいから移動平均のクロスだけで勝てる 業者の自動売買で勝ってるのはほぼポンドだろ ドル円は値動きがない時とある時の差が激しいから難易度は高いと思う
図解・ベイズ統計「超」入門 あいまいなデータから未来を予測する技術
て本はダメですか?
統計学者が事前確率なんてキンモー❤
って書いてあった本は最近読んだな
書名は忘れた
松本先生の発表時へたー(笑)
。モゴモゴ。は、
。モゴモゴ。で、
助詞だけがはっきり聞こえる
聞き取りづらい
研究のための研究みたいなことを テーマにしてやってんのね
学問として価値がある事と
実学として価値がある事が一致しない所もあるだろう
機械学習のために数学勉強しようと思うけど
微分積分の線形代数だと微分積分からの方が良いのかな
>>597 見た感じ
どちらの価値も無さそうだった
>>598 微積分からの方が良いと思う、y=f(x)のおなじみの2次元に書ける曲線のグラフの話だし
なじみやすいと思う
線形代数も別にそんなに難しいことは言っていないのだが、ベクトルとか行列の計算に慣れるまでは、
直感的にはよくわからない状態が続くから学習のモチベーションが保ちにくいと思う
大学的な数学の観点からいえば(つまり様々な証明の理解の観点から言えば)
微積分のほうが無限や極限を扱っている分難しくて、
線形代数のほうが数の個数を増やして演算規則を決めましたという方法で導入されているので簡単な気もするけど、
微積分の場合、証明は入門ではそんなにちゃんと追わなくても良いし、証明できないで直感で実用に使ってもそんなに困ることがない気がする。
逆に線形代数はある程度証明も理解できてないと実用にも耐えない気がする。
>>598 ディープラーニングだったら線形代数だろ
ベクトル演算使うし
TensorFlowにデータ入れて一丁上がり
だったら数学使わないけど、今どきそんな仕事あるかな?
著作権法違反(公衆送信権の侵害、翻案権侵害)と名誉毀損(きそん)
>>607 tensorflowなんて使うか? chainerかPytorchで十分だろ
>>607 それで済むこともあるけどやるのはいわゆる機械学習エンジニアというような専門家ではなくプログラム書ける技術者が片手間にやっているイメージ
>>610 いやだったらnumpyだけでDL出来るだろ
何を考えてんのかわからんがとにかく数学をやりたいんだろやればいいじゃん
kerasが使いやすくてただ深層学習を体験するならお薦め
でも中で何やってるか学ぶならPyTorch
Chainerは開発終了という体だからなあ
>>607 そんなこと仕事目的で勉強している暇があったら
野菜でも作ってた方がいいんじゃないかって気もするけど
団塊前後の多数派で作られた
その世代にとって都合の良い時代遅れな社会は
その世代が居なくなると共に使い物にならなくなる
そういう突っ込みがなんとも日本人らしいというか
文章だの生活態度だの細々したことを
ひたすら突いて揚げ足を取るスタイルが
技術的な方面で役に立ったのかと
思う時があるな
「技術的な方面」で役に立っている奴も
いずれ役に立たなくなるんで
「俺は例外だ!」なんて間違えても思わないことだろうな
思い上がる程、いいように扱われて処理される
そういう仕組みになっている
>220.56.102.222 は いずれもなにも
今も昔も
へのつっぱりていどにしか
役に立ってなさそう・・・
とりあえずmnist回したらええわ。あとは回し方は同じ。
そこでデータ収集が面倒ってことに気づくと思う。
機械学習スレで機械学習の話をせずに世代だの会社だの社会だのを批判してる時点でお察し
仕事で機械学習使ってるけど実務だと
ドメイン知識とEDAと特徴量エンジニアリングが一番重要でモデルの選択や実装は道具でしかない
可能なら古典的な統計モデル使って解釈性高い方が求められてkaggleのようなLBの上下で一喜一憂はあんま意味がない
人工知能学会の合同研究会を見てたけど
この人達からトランスフォーマーみたいなゲームチェンジャーな手法が出てくるとは到底思えなかった
機械学習は単なる統計学的な問題解決の一つの手段でしかないのにそこにゲームチェンジャーなどといった革新的なものを期待する方がおかしい
日本人が得意なのは改良、改善、「ゲームチェンジャー」はヤンキー任せ
単なる統計手法なんて捉え方は大雑把すぎ
結局はBPで学習させてるという意味では統計的手法だが、
トランスフォーマーはちょっとのグラフの変更だけで劇的性能向上を起こした
従来のエンコーダデコーダモデルの限界だった内部表現の容量の問題を撤廃して
データシーケンスの必要なところを自由に参照できるようになった
まさに革命だった
日本が同じレベルの革新を起こせないとは思わないが、研究環境と層の厚さの差は大きいな
人工知能学会のことは知らないが、Chainer の Define-By-Run は日本の発明だな
トランスフォーマーほどの革新とは言わないが、他のDNN学習ツールの設計にも大きな影響を与えた
>>624 機械学習の話しっていうか機械学習の勉強してコンペに出てメダルでも取るようになると
今後どれだけ人が要らなくなって
どれだけ日本が遅れているかわかるようになるだろう
どうして遅れているのかも
これから落ちて行って雇用も無くなるのに都会の大学にワザワザ行く必要があるのかとか
思うところがある
都会で大学卒業するまでにかかる費用と
高卒で実家から会社に通って貯めた金額を足すと
同じ年齢の大卒と高卒で大卒が働き始めた時点で大きな差が出来る
その差をどうやって埋めて行くのか
いつ倒産や合併してもおかしくない日本の会社に
これから勤めて行くことになるんだろうけど
親や爺さん婆さんも踏まえて資産運用を考えたとして
大して頭の良くない奴を2人も3人も都会の大学に出す余裕があるのかとか
くるくる寿司でも大半を無人にしているくら寿司もあれば
接客に2〜3人、中坊3〜4人、寿司作ってる人3〜4人で回している
昔ながらの寿司屋で昔ながらの客が入っている高い寿司屋が混在しているけど
いろいろ思うところがあるわ
この文章を見るとボケ爺さんにはなりたくないとつくづく思うわ
220.56.102.222は朝目を愛読してそうだYO・・・
高卒か大卒かというだけで年齢が同じでも一般的な日本企業ならすべての労働単価が変わってきて結局生涯収入で数千万円の差が出る
私立の医大にでも行かない限り大学卒業時点での学費負担と高卒の貯蓄とで数千万円も差が出るとは考えにくいので大卒の方が得する可能性が高い
そっか、Define-By-Runは日本発だった
過去スレではなぜかディスられてたけどね>>チェイナー
>>638 天声人語の文章構成にそっくり、文章が飛んで飛んでw
>>636 高卒の年収で貯めた貯金なんか一瞬で捲れるけどw
高卒とか大卒とかで一括りにしてるのがどうかと思う
分布があるもの
>>642 本当か?
今ざっくりネットで調べてみても
学歴別の2年目の年収は
大卒:平均290万円
高卒:平均237万円
実家で親と一緒に住むことにより家賃、朝、夕食代で大体月3万円の支出で済むが
都心に出ると家賃、食費で一体いくらかかると思っている?
一生実家に住むわけではなくせいぜい10年程度だろ
その後は生活費は両者変わらなくなるので生涯収入では大した問題にはならない
>>646 それは状況によりけりだろう
今まで日本社会にゆとりがあったから別々に生活することが前提になっていただけで
結婚しても実家に住むケースだって十分あり得る訳で
実際コロナが蔓延して親と一緒に暮らすようになった割合は高くなっている
これから日本が落ちてくことを考えると一緒に暮らすことがデフォルトになる可能性は十分ある
https://news.yahoo.co.jp/articles/502dacd03b09eaa7c6d80e77923d509056d7ae2c ちなみにアメリカで若者が親と同居している率は
大恐慌時代のピークを越え、記録史上最も高い数値になっている
これから日本は落ちるぞ
信じられない程に
アメリカで親と同居しているのと
日本が落ちるのと
どんな関係が?
やヴぁいやつの思考がわかったらやヴぁいからな・・・
おれらは知らなくていいことなんだろ
そもそも機械学習だのAIだの言っても
日本なんてEC化も進まないのに
その分野で先端を行くとかあるのか?
https://news.yahoo.co.jp/articles/5578da44dd3317bd0b74b168f58558a69699780d?page=1 その記事の最後に書いてあるが
おっさん、爺さんあたりの多数派が
「俺等さえ良ければそれでいい」ってことで
あらゆる分野で日本は進化しなくなっているんだからな
付けは若い世代に回ってくる
だってどうしようもないじゃん
サイレントテロをやるぐらいしか
お前は何かやってんの?
まあ2000万ためろと言いつつ、貯金するから金配らんとかいう馬鹿が副総理やってる国だからな。
そこに相関を見いだしたのか、
メンバシップ関数を無理やり割当したのか
EC化が進まなくても自動車の自動運転レベル3実用化とか他にできる事がいろいろあると思う
deep learningの実践に対する理論の後追い見るとやっぱ手動かしてナンボだなとは思う。
>>655 自動運転なんて実用化できないし世の中にも受け入れられませんよ
なぜならば、自動運転車が事故を起こしたときの法的な第一責任者を決めることができないから
であれば 1990 年から 2020 年まで全然解決の目処も立たないのですね‥‥
自動運転なんて大規模展開できるようになれば人間の運転より事故率を見積もりやすくなるので保険でいくらでも対応できる
飲酒運転も煽り運転も出来なくなって安全になるっしょ。はよはよ
>>657 あなたが思うように世の中が動くとは限らないけどね
思うように世の中が動くなら投資で大儲けできているはず
>>661 それは甘いのでは?
自動運転側が原因で発生する事故だけではないでしょう?
予測不可能な行動を始終好き放題にやりまくっている人間側に原因がある場合には、それをどう見積もるというのです?
>>657 国有車は一切、民間保険入ってないの知ってる?
国にとっては個人の補償なんてものの数じゃないの。
交通事故死が1万人いて1億円払っても1兆円。
車一台に年2万円の税金とれば補填できる。
まあ、民間がやるだろうけどね。
自動走行の実験をカバーする保険はできた、ニュースでやっとった
>>669 今でもリコールすべき事案を隠してたら刑事罰の対象になるだろうからそれと同じ感じになると思う
予見可能な事を放置していたらまずいけどそうでなければ罪には問われないのは今も同じ
>>655 仮に自動運転のレベルが上がって
完全自動運転が可能になったりすると
車を所有するより町中無人走行 or 待機している車に
スマホか何かでアクセスして家まで来てもらった方がいいってことで
車を所有する人が激減した挙句、Uberなんかが競争に参加して来るんだろ
全員でシェアするんで車のトータル販売台数も激減するわけで
アクセスが多い時間帯に必要とされる場所に車が移動して
車内のディスプレイに乗客にとって興味のある広告が表示され
店の付近通るとクーポンが表示されて、、とか
日本全く勝てそうにないけど
逆になぜそう思わないのか
Amazonが顧客囲い込み拡販ツールとしてタブレットを糞安く売っているが
同じように広告や他で稼いでくれる要素があるなら
乗車料金は安くできる
車は無人で人件費はイラナイし
車の購入金額、駐車場代、税金、ガソリン代、車検と
一体いくらかかっていると思うんだ?
たまに必要な時があるからと余分に持ってる人も多いのに
Amazonとか出て来ると厄介だぞ
タブレットの時みたいに
Amazon「利益は別どうでもいい、配送車の空時間を積極的に使って
うちの商品買ってもらうんで」
とか言い出したりして
有り得ないレベルの格安乗車料金になったりして
本当にごくたまにしか使わないなら今でもタクシーかレンタカーの方が安上がりだから所有する必要ないけどな
>>674 Uber eatsは事故とかいろいろ問題も出てきている
経済的な観点だけでは決まらない
どうなるか断言したところで現実がどうなるのかは別
日本の技術力が上がるかもしれないし
先行している企業と提携する事だって考えられる
andrew NG って何て読むの?
あんどりゅーング?
>>679 アンデュリュー・ンー
広東語名:呉恩達(ンー・ヤンダーッ)
完全自動運転が達成されると
駐車料金というのは意味を失うな
必要になるまでその辺を周回しておいてもらえればいい
本当に必要がない期間は山奥のただみたいにところで
待機していればいいだけ
そのうちキャンピングカーかなんかに住んで
都心に出勤とかもあり得るぞ
>>681 >キャンピングカーかなんかに住んで都心に出勤
お外国には、トレーラーハウス民なるものが既におってな
それならキャンピングカー内でテレワークしてるわ
その頃には会議システムもかなり洗練されてそうだし
周回させてたらエネルギーが無駄になる
使わない時間は他の移動する人に貸すとかした方が良いような気がする
>>657 それも障害かもね
ただ、技術に遅れながらもいずれ法律はできると思うよ
自動車があまりなかった頃は、間違えて人を死なせたら、即、過失致死罪だった(旧過失論)。今はやるべきことをやっていたら(道交法を守ってたら)無罪。
レベル5の自動運転は中国あたりが最初に始めそうとか言ってみるテスト
為替を機械学習のパターン認識で読み解くって現実的になんだろうか?
勾配ブースティングで500個くらいの特徴量でやってみたけど、回帰予測は相当難しい。
分類は罠があって、レンジが多いから正答率5割超えたりして勘違いする。
要するにちゃんと仮説検定しましょうってことだろ?
·回帰係数が0ではないかを検定する
·クロスバリデーション等で測った回収率の信頼区間をブートストラップ法で出す
前者はよく知られているが線形モデルなど限られたモデルでしか出来ないと思う
後者は俺以外でやっている人見たことないから合ってるはか知らん
いずれにしても検定や信頼区間を出すとき、普通はサンプルに独立同分布を仮定するから為替でこの手法が使えるか微妙だな
で、為替が予測出来るかどうかだが、株価予測は難しそうな事が数年前の雑誌のインタビュー記事に書いていたような気がするな
雑誌はニュートンだったような気がするが、新しい別冊ニュートンにもそこら辺の事が書いてそうだから読んでみたらどうだ?
株が無理なら為替も難しいだろ
個人的には株価の指標や為替なんかは難しいと思っているが、個別銘柄ならワンチャンあると思ってる
ただし、衛星画像とか使って駐車場監視したりすることになりそうだが
他レスにもある通り、金を稼ぎたいなら為替予測とかよりも周りの人が応援したくなるような人物になる方が簡単だと思う
それより未来のロボットの話がしたい
AIとか衰退するよ。
人間の手や目や感覚には敵わない!
さっさとプログラムやめなw
実質プログラムより
機械、電気専門の知識ある人が職にあふれてない。
それと同じ。
AIとプログラミングは似てるようで違うぞな。PGがみんなAIやってる訳じゃなくて、上のレイヤーみたいな感じ。
職を失うならまずAIの足元のIT系からだね
>>692 人類vs AIの世界観なのか…
如何にも「AIに仕事が奪われる!」を信じる単純作業者って感じ
AIより先にただの機械に奪われる心配した方が良い
コードも言語モデルで生成されるようになってきてるけどどこまで実用化されんだろ
他に専門領域があって、それを活かすのに機械学習を使うって感じがいいよ
新しいアルゴリズム作って、一からスクラッチで組む人以外はね。
>>695 AIマンはいなくてもただちには困らないから、不況になったら先に切られると思うよ。
足元のIT系はシステム維持のために必要。
将来の人類の仕事が
AIのためにデータにアノテーション
するだけになってる可能性もある
AIマンの首切り過ぎて、学習の調整が出来なくなるってあるあるになりそうだな
>>691 為替の予測は無理だ
ランダムウォークだからな
>>700 AIがもっと普及したらAIもシステムの一部になるだろうけど、まだ少し先だろうね
言語界隈の機械学習は詐欺師しかおらんだろ。
翻訳以外まともな成果はない。
>>705 スパムメールの判別とかは成果だろう
言語関係っていうのがどの範囲かで変わるけど
>>706 あれ、言語分析というよりかは宛先だったり添付物のパターン分析だろ。
言語生成とかほんま詐欺レベルだわ。
あれでサービスレベルでチャットボット作れるとかに釣られたバカがどれだけ失敗してるかを
統計的に発表する方がよっぽど価値あるんじゃないか?
AutoMLのZEROの方って開発者が人口少ないんだな
>>710 オイヨイヨーwww
機械翻訳でもしたのかw
>>709 単語とかを分析している
もう少しするとNTTが詐欺電話かどうか判別するサービスを始める
音声認識と機械学習の組み合わせ
んなもん金の話し始めたらとりあえずアラート出すとかその程度にしかならんよw
まともに使えるまであと20年くらいかかるだろうし、それくらい不貞腐れず研究続ける気概がなきゃ無理だわ。
「金の話になったらアラート」でも目的は十分達成できると思うけど
スパムメールって定型化しているから
学習以前の問題な気がする
The SIGNLL Conference on Computational Natural Language Learning
最近、日本人研究者が実装を公開してくれるようになったので
楽になった
Python3.5終了か
来年には3.6も終わりなのかなあ
安定してて良かったけど、ここらで終わりか
3.7以降で色んなものを作り直さないとなあ
宝くじ仮説ってなあに?
知識蒸留が可能という主張の根拠 ってだけ?
夢あるサイエンティストはみんなそうじゃない?(笑)
英語の頭文字を格好良くするためによく分からない正式名称が出来上がっちゃうことはよくある
>>21 ど定番だけど、ゼロから作るdeeplearning読むと良いよ
ディープラーニング以外の機械学習の手法って勉強する意味ありますか?
>>735 あるよ
タスクによって機械学習の方が得意なものもあるからね
>>735 仕事だと
「なんでneural networkを使ったんですか? 他のモデルと比較しなかったんですか?」
っていう質問が飛んでくるよ
>>743 日本はジジババ社会で新しいものに移行する気がないからな
これからは、、こうしなければならない、変更していかなければならないってことで
どんどん移行して行くのは海外の話しで
日本は多数派の高齢者が良ければそれでいいので
流行りものに手を出してもブームが過ぎれば価値が無いものになる可能性が高い
ITの仕事と言ってもクラウドワークスみたいな会社が仕事をバラバラに砕いて
駄菓子屋でお菓子を売るような値段で末端に売り場いて終わりそう
1/10の単価でやりますとか言って
そんなIT土方になるぐらいならジジババに受け入れられているリアル土方になった方がいい
日本の場合は
若い子に勉強させ無駄に新しいことをさせようとするが
多数派はそれを受け入れないで現状維持に徹する
y=α+βx+εの線形回帰で、最小二乗法で推定量αハットとβハットを求めて、それぞれの期待値を計算すると思いますが、どの確率分布で期待値をとるのでしょうか?
>>735 割り当ての実験が出来ない場合の因果推論ではパラメトリックモデルが主流
>>746 ベイズ推定でα・βに何か確率分布を仮定するならともかく、普通の線形回帰で最小二乗法でα・βを決めるという話なら
α・βは何か決まった値がありそれを探すだけなので確率変数ですらないのでそもそもα・βの期待値を計算することなどない
ベイズ的でない最小二乗法ではεだけが確率変数でそれを正規分布と仮定している
>>750 理解してないんだったら書き込まない方がいい
バックプロパゲーションについて質問です.
これは結局のところ,与えられた多変数関数のある点での偏導関数の値を求めるのに,素朴な方法よりも計算量が少なくて済む方法ということで間違っていないでしょうか?
日本語のディープラーニングの入門書を見ても,偏導関数の値のバックプロパゲーションによる計算方法だけ載っていて,計算量についての考察がないものばかりのような気がします.
750の表現も間違いではないように思うけどな
正規分布で最尤推定した時と結果が等しくなることもあると思う
確率変数ではないから信頼区間とか検定とかはできないんだろうし
>>753 誤差を逆伝搬する事で学習するというアルゴリズムだから偏微分はその過程で必要なだけで計算量を減らす目的ではないと思う
計算量は素子数とかデータ数とかによるのかな?
>>754 理解してないんだったら書き込まない方がいいよ
滑らかな関数なら数値計算した方がいいに決まってるだろう、度勘違い
>>752 どこが間違っているのか分からんので教えて
微分するのは評価関数を最小化する、最適化するため
評価関数の値が小さくなる方向にに重みを更新する
>>753 素朴な方法って総当たり法のことかな?
バックプロパゲーションで学習ができることは理論的裏付けがなくて単なる経験則らしい
条件によって収束までのステップ数はえらく変わるし、そもそも収束する保証もないので
見積りもできないのだろう
746です。
とりあえずα=0とした場合、
平均が(βx_1, ... , βx_n)、共分散行列が(σ^2)I_nとなる適当な確率分布でやれば全てうまくいきそうです。
ありがとうございました。
>>762 仮説検定とかをするなら流石に正規分布まで仮定しないとうまくいかないですが、
βハットが最良線形不偏推定量であることやσ^2の推定までは全てうまくいってしまってます。
間違ってるんですかね?
推定量の次元がα、βの2次元なのに
>平均が(βx_1, ... , βx_n)、共分散行列が(σ^2)I_nとなる適当な確率分布でやれば全てうまくいきそうです。
とか言っている時点で間違っていると気づくべき
回帰式はn個って事なのか?
α、βってスカラーじゃないのか
データ数はいくつあるのかな?
>>764 推定量がyに関して2次以下ならこの仮定だけで計算できませんか?
>>766 nがサンプル数でβ∈Rを想定していますが、特に変更なくm変数でも議論できる気がしています。
>推定量がyに関して2次以下ならこの仮定だけで計算できませんか?
意味不明
>nがサンプル数でβ∈Rを想定していますが、特に変更なくm変数でも議論できる気がしています。
これも意味不明だが、回帰分析において推定したいパラメータの次元は
2でも一般のmでも(サンプルサイズを下回っている限りは)特に議論は変わらない
というか、こんなの学部生レベルのお話なんだからこんなところで聞かなくても
ググれば計算過程込みでいくらでも出てくるだろ…
答えだけ書けば(仮定にもよるが標準的な仮定の下では)
\hat{α}, \hat{β}は不偏推定量になる
>>768 R^n上の確率分布pで、
平均μ=E_p[x]=(βかけるx_1,...,βかけるx_n)で、
分散共分散行列がn×n行列で対角線上にσ^2が並んだものを想定しています。
例えば正規分布などはこれに当てはまると思います。
岡谷貴之の本のバックプロパゲーションの説明が一番わかり易いようです.
n次元ベクトルでデータ数はn?
データ足りないような
最小二乗法ならn次元ベクトルは確率変数じゃなくても良いんじゃないの?
回帰式がn個あるのと実質同じじゃないのかな?
>>772 推定しようとしている傾きβはスカラーですよ?
>>774 確率分布pの平均です。
μ=E_p[x]でちゃんと明示したつもりでした。
その確率分布pに従うのはなに?それを聞いてるんだが
例えば、株価予測にCNNを使う場合、畳み込みのカーネルはどんなの用意すればええんや?
ん?μ=E_p[x]ってことは説明変数の期待値がμだって言いたいの?
>>777 (Y_1, ... , Y_n) ~ pです。
>>779 あ、ごめんなさい。
E_p[y]ですね。ここでy=(y_1,...,y_n)∈R^nです。
yの平均値ならαを足さないとだめでしょ
それとも定数項なしのモデルでも考えたいの?
>>782 簡単のために定数項なしのモデルで考えています。
761で言及したのでずっとそのつもりでした。
>>778 転移学習したいってこと?
別にカーネルも自分で学習させればいいと思うけど
みなさん,ありがとうございました.
岡谷の本を見ていますが,やはり,バックプロパゲーションは偏導関数のある点での値をより速く求める方法にすぎないということのようですね.
そしてその偏導関数の値を勾配降下法で利用するということですね.
ディープラーニングというのは結局の所,あるタイプの最小化したい誤差関数を一つ定め,それを勾配降下法でできる限り小さくする手法ということのようですね.
最適化の一分野ということですね.
パラメーターで変化する誤差関数のテストデータに対する値をパラメーターを変化させて,できる限り小さくするというだけのことのようですね.
夢も何もないただの最適化法の一分野ですね.
当たり前の事をw
最近はバックグラウンドまで教えないのかな
夢でもなんでもないことを組み合わせたら精度が人間並になる場合があり、こいつらの得意分野は任せちゃっていいかもな。って感じだっしょ
https://www.youtube.com/playlist?list=PLUl4u3cNGP63oMNUHXqIUcrkS2PivhN3k Strang教授のこのビデオ講義シリーズを見た人はいませんか?
なんか非常に簡単なことでつっかえて,結局何も示せずに,簡単だから自分でやってくださいとかいう場面が多すぎます.
ID:n2wcT9Ah0は馬鹿アスペという荒らしなのでスルーしてね
最適化も局所最適解でしかないかもしれない
大極的な最適解かどうかは組合せ爆発して解けない事が多い
技術的にフルバッチで最適化できてたら汎化性能が出なかったわけで、deep learningが最適化というと
なんか違う気はする。
「Waymo」の自動運転車に60回以上乗って分かったその安全性とは?
https://gigazine.net/news/20201208-waymo-driverless-tech/ 「Waymo」の完全自動運転は評価いいみたいだぞ
>>793 評価関数を最適化するって事で
学習データに対して最適化すると
過学習して汎化性能が悪い事になる
学習データと運用データの差があるのが問題の1つ
実運用データを完全網羅して学習したら過学習にはならないんじゃないかと思う
Ars Technicaはこの点について、「歩行者がいる場面では、Waymoは慎重すぎます。人間のドライバーであれば、
間違いなくもっと速く動けるでしょう。しかし、このことでWaymoを責めるのは困難です。人をはねる危険を冒すくらいなら、
多少待たされた方がはるかにマシですから」とコメントしました。
不満はあれど批判できないってところだろうな
まあこういう実証実験を積み重ねていけばいつかはものになるだろ
日本は装置内のハードやソフトだけで成り立たせて製品単体として売るぐらいだろう
「危ないところは人が見てくださいね」っていう仕様で
IT云々と絡めたり、別のサービスと絡むようなことはないだろう
日本が出来るのは
製品単体をマニアック仕様にして高く売りつけることぐらいで
車内のカメラも踏まえ、、、いろんなデータをいち早く収集し
売上に繋げて行くんだろうな
Transformer-based Double-token Bidirectional Autoregressive Decodingin Neural Machine Translation
https://www.aclweb.org/anthology/2020.wat-1.3.pdf 精度を上げるつもりでL2RとR2Lを組み込んだんだろうけど
精度を下げてて草
しょうもなくて「速度が〜」に方針転換しててさらに草
茨木俊秀著『AI時代の離散数学』に以下の記述があります.
「ディープラーニングがいろいろな分野で成功を収めているのは,多層NNは,複雑でありながら柔軟な構造をもっているので,全体的な最適解でなくても,
品質の高い局所最適解が多数存在するため,最急降下法によってそれらへ至る経路を見出しやすいからではないかと考えられる.」
確かにそうなのではないかと思わざるを得ないのですが,「品質の高い局所最適解が多数存在する」ことについての研究はあるのでしょうか?
損失関数のグラフが一般にどういう形状をしているのかについての研究はないのでしょうか?
>>806 Visualizing the Loss Landscape of Neural Nets
https://arxiv.org/abs/1712.09913 問題やパラメータによって形状は変わるんじゃないの?
一般的な議論をするのって難しくない?
>>808 ありがとうございます.
>>809 たとえば,f(x) = a*x^2 + b*x + cという関数のグラフは(a≠0であれば)パラメータによらず放物線です.
ところで,ディープラーニングでは,ニューラルネットワークを使って,誤差関数を決めます.
誤差関数を全く別の考え方で決めてやるともっと性能の良い人工知能ができないかと考えて研究している人はいるのでしょうか?
目的関数が異なるモデル同士は性能を比較できないんじゃない?
目的関数の他に最適性の指標となる評価関数があるなら別だけど。
>>811 具体例を出せなくて申し訳ないが、誤差を補正して過学習を防ぐ正則化手法には
いろんな研究分野があるらしい
いま過学習に悩まされてて調べてみようかなと思ってたところ
>>812 どういうことでしょうか?
>>813-815 ありがとうございました.
岡谷貴之著『深層学習』を読んでいるのですが,確率的勾配降下法についての素朴な質問です.
Nは全訓練サンプルの数です.
E(w) = Σ_{n=1}^{N} E_n(w)
確率的勾配降下法では,極端な場合,サンプル1つだけを使ってパラメータの更新を行うと書いてあります.
たとえば,n=1のサンプルを使って,wを更新したとします.
このとき,E_1(w)の値は,(学習係数の値が十分小さければ,)少し小さくなりますが,他のnについてのE_n(w)の値は逆に増えてしまい,
トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか?
岡谷の本にはそのことについて全く触れていません.
バッチ学習をした後で,テストデータに対して,誤差関数の値が本当に小さくなるのかというのと似たような問題かもしれませんね.
>>816 > トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか?
普通にあるよ
増えたり減ったりしながら徐々に正解に近づいていくイメージ
振動するおかげで極小解から脱出できるチャンスが増える
>>819 確率的勾配降下法によって,極小値を与えるwにかならず近づいていくということは証明できるのでしょうか?
勾配降下法では,学習係数が十分小さければ,単調に誤差が減少していき,最終的に,極小値を与えるwに近づいていくことは自明ですが.
>>814 最終的な性能は正解率とか指標があるでしょう
>>811 教師信号、正解と出力の差、距離の計算方法を変えたら評価関数、誤差関数は違うものになるだろう
ただそれで学習時間や性能にどんな影響があるかは自分は判らない
>>820 確率的勾配降下でも、学習率εが十分に小さければ近づく、とされてるね
証明もされてるんだとは思うけど、どこ見ればいいとかは俺はわからない
ところで、欲しいのは極小解じゃなくて大域的最適解だよね?
極小値でよければ最急降下法が一番収束が速い
1サンプルずつ学習する確率的…は極小値にはまらない可能性は高いけど重すぎる
バランスを取ったのがバッチ学習
>>816 自分で実験してみるのが1つの方法
初期化後に全データで評価値を計算して
簡単なNNを作ってデータ1つで重みを更新してから
全データで評価値を再計算する
多分増える事もあると思うけどデータを変えて重みを更新していく事で徐々に出力と正解の誤差が小さくなっていくと思う
同じ出力をする入力は同じニューロンが発火して
別の出力をする入力はそれと違うニューロンが発火するよつな感じに学習が進んでいくのかな
>>820 勾配降下法は深層学習に限らず研究されているんじゃないかと思う
そっち方面で局所的最適値を得られる条件とか判ってるかもしれない
凸関数とかそんなのが条件になっていたりするかも
思い出した
鞍点とかあるとそこで止まるとかあったような
意味があるかは解釈によっても変わる
道具が同じでも上手く使える人とそうではない人がいる
既存の技術を上手く使って問題解決できた人もいるからな
みなさん,ありがとうございました.
いろいろな日本語のディープラーニングの本を見てみましたが,確率的勾配降下法がなぜうまくいのかについての説明は全くありませんでした.
まるで,うまくいくのが自明であるかのような扱いです.
確率的勾配降下法に限らず,この分野は常にこのような感じですよね.
1355-orE1は馬鹿アスペなのでスルーよろしく
わかんないことがあれば自分で調べればいいのにね(笑)
>>830 この辺の理論が解明され始めたのは去年頃からだから、まだ本にはなってないよ
知りたければ論文読むかslideshareを探すといい
馬鹿と決めつけるより具体的に反論した方が生産的な気もする
深層学習じゃない機械学習では誤差が小さくなる事とか条件とか証明されていると思うけどな
深層学習もそれからの類推か包含しているかじゃないか?
>>831 発表されていないけど考えられる限りの
それ以外の方法を
多数の人が試していて
性能が出ないので発表されていないだけ
技術の分野ではよくあるんだよな
それを知らないと時間を大きく損する
荒らしってほどでもないような…
判らないのであれば、判らないと答えればいい。
それか参考になりそうな論文を紹介するとかね。
それから馬鹿アスぺはアルゴリズムの本を読んでいてプログラムの才能はないとぷ板の住人にで言われてる
>>837 深層学習を従来の理論に当てはめると過学習しまくって使い物にならんはず
だが実際学習できて性能も良い
この差は既存の理論では最適化(勾配降下法)のダイナミクスが考慮されていないから
最適化までを考慮して統計理論に結びつける研究が近年進んでいる
最適化関連の過去の研究結果が何一つ活用できない?
数学的にある値、例えば誤差がある範囲に入る確率とか、の上限が示されていたりする事は活用できるだろう
他の機械学習に勾配降下と同等の操作をしていないと言うのは何故そう思う?
していないなんて言ってないよ。考慮されていないと言っただけ
従来はそれで多いな問題はなかったが、深層学習ではパラメーター空間が広大になり最適化法それ自体の制約としての側面が目立つようになった
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な ことはよーくわかったよ。 ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw
850, 851のpdfを読むと
層の横幅Mが広い(素子数が多い)と大域的最適解を得られるっぽいけど
どのくらいの素子数なのか実現可能な数なのかはよくわからなかったな
その素子数を計算で求めることができるのかも
P20に初期化は1/Mって書いてあるけど、横幅Mを計算するλminが何か書いてないような
wの初期化するN(0,I)のIも何か判らない
NTKで調べたら出てくるのか?
逆温度βもどんな値になるのか、変化するのかも判らないな
非凸性→深層学習
その他→他の機械学習(ランダムフォレストとか)
が適しているって感じ?
勾配降下法の意味は理解できましたが、使う意味がよく分からないです。
初めから勾配ベクトルが零ベクトルになるように偏微分の連立方程式解いて
その解を損失関数に代入したものの中から最小のものを選べば済むんじゃないですか?
そうすれば局所最適解に陥ることも避けられますし
>>856 数千万次元の非線形連立方程式が解けるのならね
損失関数の導関数が4次方程式までなら頑張れば解析的に解ける希ガスとか言ってるテスト
次元(変数の数?)が膨大な上に、偏微分で得られた導関数が5次以上になると
代数的に解くことができなくなるからってことなんですね
勉強になりました、ありがとうございます
>>861 計算量の問題もあるが、それだけじゃないんだぜ
学習データだけで最適解を求めてしまうと過学習に陥りやすくなる
いろいろ制約つけて、学習を途中で止めた方が汎化性能が高くなる
アーリーストップとかで調べてみるといいよ
解析的に求められないってことを知った上での発言かと思ってた
極端な話n次元ならn次方程式を用意すれば
サンプルを完全にトレースできる
でもそれだと過学習
一つ別のデータに出会ったとたん破綻する
非線形だから簡単じゃないんだろう
わざわざより高次元空間に写して線形判別しないと上手くいかない
>>865 それは違う気がするな
重みやパラメータをデータから決めただけで
モデルの出力が学習に使用したデータから少しずれたら判別でしなくなるのとは違う
例えば2値判別する時に2点のデータからその中間で判別する境界線を学習したら
データの2点から少しズレても正しく判別できる
>>864 多分「解析的に求められない」の意味もわかってないと思われる。
>>867 同じグループに判別されるデータが飛び飛びではなくて連続しているという前提が成り立つ空間ではそうなるけど
少しズレたら別のグループに判別される様な空間では複雑な境界線になるだろうな
>>869 それを解消するために座標変換するんじゃないのか?
その通り
飛び飛びかどうかなど自分で勝手に決めた空間での話に過ぎない
>>870 それは判っているけど
具体的にどんな変換をしたら良いかはどうやって見つける?
試したものより良いものがあるかもしれない
試したものが良くないものばかりの場合は幾ら試しても大して改善しない
>>874 そもそも真の分布などが分からないものを扱うために分析者の判断で何らかの近似をするのが機械学習を含む統計的分析なので「その方法よりいい方法があるかもしれない」は常に発生する問題
>>876 必要な次元とか空間の特徴とか計算料を少なくする条件とか
判る事がゼロなのかどうかで違ってくるだろう
アルゴリズムにも人権を与えて
自動運転でミスったりしたら
減点すればいい
運転免許もアルゴリズムに与えて
失敗したアルゴリズムには免許与えない
アルゴリズムが得た給料を
損害時の補償に使う
人を殺したらそのアルゴリズムを死刑つまり廃止する
そして機械学習は禁止され、技術の発展は止まりましたとさ
問題が発生したとき思考停止で禁止にして表面的に解決した事にするのはよくないよ
タチコマみたいにクローン沢山作って同期させて、問題が起きたらその手前まで巻き戻せばいいんじゃね。知らんけど
富士通が次元の呪いを解決していたとは知らなかった(笑)
>>878 人と違ってアルゴリズムが厳密に同じか違うかは判定できなないだろ
会社がそのアルゴリズムを採用する
会社は損失を負うリスクを回避するようになる
つまり良くないアルゴリズムは淘汰されていく
最近解雇されたGoogle の AI 研究者はヒドイjsw
黒人で女だから差別されたって言えば最強、誰も何も言えなくなるのを利用した卑怯者
正義面して、ポリコレがいきすぎてる
仲間内の揉め事って感じだよね。他の失業者も沢山いるんやが
>>891 ハイハイ、逆張り俺すげー言いたいのはよくわかったよ。
こういう馬鹿がトランプ支持してんだろうね。
敵対的生成ネットワークを実世界で
展開する俺すげー
かな?
いや普通に差別されて訴えてるだけだろ。それを裏がある(ドヤ)とかやってるから馬鹿だと言ってる。
ネットで話題になるっていうことは
そういうことだろう
糞みたいな動画をいろんなSNSに貼りつけ
煽ったり叩いたり擁護する奴が現れ書き込みが増えて行き
同時期にスタートした同じテーマの質の良い動画をうpしている
youtuberより3桁、4桁上の視聴数を稼ぐことになっていた
人気の動画っていうのも
そういうことだろう
炎上してネットで話題になった案件でも
そこで何回も投稿している奴は数人しかいない
画像認識でロス0まで学習を行っても教師画像を数枚誤認識するんですけどなんでですか?
Appleも自分の所で車作ってるんだな
ウォルマートが2021年から完全無人の自動運転トラック配送をスタートするし
日本の自動車業界と配送業者の終焉も近そうだけど
全ての国道を自動運転対応にする公共事業をやればいい
2021年9月にApple Carを発売する見込み、、、らしい
倒産寸前から時価総額1兆ドルになったアップルがここまで成長した理由に
ジョブズの改革を上げてたけど
損益計算書を持つ独立した事業単位を持つことを廃止したとか
マネジメントしかできない管理職を解雇し、企業が作る製品の「専門家」が管理職に投入されることになったとか
日本の技術系企業の創業者とか発明、開発した人が社長になる時代の方式に近そうだけど
組織がある程度の規模になった時にやってくる
「僕ちゃんが数値を良くしてあげますよ」的な怪しい奴等は
その場凌ぎの増強剤で逃げ切るばかりで
糞の役にも立たないってことをジョブズは見抜いていたな
上も下も中間も片っ端から首をはねたらしいからな
時計もパソコンもスマホも車もAppleの時代になるんだな
Windowsパソコンのほうがシェアは高いのに,コンピュータサイエンティストとかが講義で使っているパソコンがほぼ必ずと言っていいほど,Appleのパソコンなのはなぜでしょうか?
>>910 画面が綺麗なのと、ターミナルでシェルが使えるからじゃね。知らんけど
Mac を使っている香具師は、情弱w
Linux を知らないから、BSD のMacを使う
プロは、Windows 10 Home 版でさえ、WSL2 で、Ubuntu 18.04 などの、Linuxを使う。
Windows10 Home用のDocker も入れる。
それには、Kubernetes も入っている
Linux, Docker, AWS が基幹技術。
それと、シェルスクリプト・Ruby が出来れば、環境構築できる
Docker Compose ? はあ?
もう、Kubernetesが入っているけどw
こういう話についていけない香具師が、Macを買うw
結局、いつまで経っても、Linux API を学ばないから、単なるプログラマーにしかならない
CUDAを使えるGPUが入っているPCはWindowsかLinuxだよなあ
MacだとAMDだけだから深層学習に限ればやりにくい
Macの新しいM1チップは2.6 TFLOPSでTensorFlowも使えるらしい。趣味程度なら使えるかな?
長時間学習するなら専用サーバーかクラウドだろうね。
たかがプラットフォームにどうして勝ち負けを挑む人が居るのか...
データセットに黒人が少ないから認識率が悪かった、という当たり前の事実を報告しただけでなんでai倫理の権威になれたのか、というと
報告者が黒人だったからなんだよな
仮想化したらwindowsでもlinuxとか使える
>>919 当たり前である事と明白であることは違う
考えてみりゃ当たり前のことでも今まで注目されていなかった部分に光を当てるのは普通に価値があると思うが…
黒人がゴリラに誤認識されたからって
アルゴリズムが差別を助長してるわけでもない
ただデータセットが偏っていただけ
なのに差別だと騒ぐ
差別を探して差別を作り出してる
360度カメラで囲んで顔写真撮って、データセット作ってるらしいからそのうち直るんかね
>>891 Googleはまだましだけど、ビックテックはポリコレの巣窟
それがイヤで転職してくるエンジニアも居るから、人材独占にならずに良いんだろうけど
EM法とGPとMCMCとALSの違い教えてください
ヒントンさんが成果出して当時の日本人研究者の人が全く成果出してないのはなぜなんだろう
日本の頭いい研究者って数式の展開は得意だけど独創性がないよね
当時ニューラルネットの研究者は
ローカルミニマムに陥る現象を論理的に解決できないって言って逃げたらしいけど
活性化関数やミニバッチやドロップアウトみたいな工夫だけで攻略できたのにな
まあそれでも十数年かかった訳だけど
>>937 答えを知ってから色々言ってもなぁ
他の分野でも同じ
GAFAみたいにならなかったとか
まだ未解決の問題はあるからそれを解いたら良い
ノードの 性質を理解したらああいう工夫はできたよね
上っ面でしか理解してないのかも
ヒントンはホント優れた研究者
ニューラルネットワークはブラックボックスだって言って説明責任を逃げてるけど本当は説明できるのかもね
実際の性能出すまでの準備は相当なもんだろ。
image net 作るだけでも大作業だっての。
SGDが奇跡的に汎化性能向上に寄与したのもやってみてなんぼの感覚があったからで理論的裏付けが何かあったわけでもない。
てか今もその研究は終わってない。
>>937 僕らがローカルミニマムに陥ってないと思えるのは
究極的には量子力学的な背景があるからなのかな
>>939 今は機能として自分たちの外に
見てるから説明が欲しいけど
人間と同じレベルのロボットが作れて
人間と見分けがつかなくなった時に、
それでもできる事に説明を求めるようになるのかな。
できない事に説明を求めるのは
なんとなく理解するけど。
アノテーションアプリのVottだが
半年前までは「10日くらいアセットにアクセスしないでいると読み込めなくなる」
って状態だったので
少なくとも近日中に再編集する必要のあるものは毎日開いて見るようにしていた
原因をWebで検索しても分からなかった
ところで今になって、最近開いてなかったものを読み込んでみたらちゃんと読み込めた
何か改善されたのかなあ
自分もNode.jsとelectronを勉強してVottのオレオレ版でも
作ろうと思ってたのだがw
bounding boxじゃなくて完全輪郭検出があるものも出てきたが
データセットのありかが全部中国だな
コンピュターの処理能力があがったため、これは前回のNNブームでも同じ
普段から、強力な計算機に触ってないと思いつかない。なんてありそう
なぜ伸びないのか、なぜ成長しないのか
それは金を掛けないからに決まっている
問題というか失敗というか
これからドンドン落ちてく要因となったのは
経営者とか政治家とか文系分野でTOPに居た
おっさん爺さん勢のせいだと言い切って間違いないだろう
>>942 説明してほしくなるのは
人間のレベルがaiより低いからだと思う
将棋でも人間には意味不明でもよくよく調べたらその手に意味があったということがあるし
政治家のせい経営者のせいとか文句言うだけ言って自身はそいつらより効果的な施策を実行するのかと思いきや何もしないのが一番無能
>>942 >>850, 851
のpdfにある方法で初期化するとその近くに大局的最小値があるとか書いてあったと思う
凸関数とかノード数無限大とか何かしら条件があったかもしれないけど
人間に任せるのだって人間の脳の処理は完全に解明されていないけど人間だからって理由で任せているけどね
>>949 今の自民党は何もしないよりも酷いがな。
>>954 毎回当たり前のように行ってるがなんでそんな質問されるのか意味わからん。
>>948 人間の方が圧倒的にレベル高いだろ
割り当ての実験をしなくても因果が推論できるんだから
1000年後もAI は人間の足元にも及んでいないと思う
>>957 共産党政権になったら幹部になれるの、それとも粛清される方?
>>958 相関だけで勝手に因果関係があると思い込んだりもするけどな
>>960 コミュ障の俺にレスしても会話盛り上がらんよ( ;´・ω・`)
>>831 「トピックモデルによる統計的潜在意味解析」の3章と付録A.7に確率的勾配降下法の導出と証明が載っている
その本によると収束の保証は優マルチンゲール収束定理とか言うのを使うらしい
>>961 下の本の証明が気になって立ち読みしてみたけどさっぱりわからんかった
これ作者も理解してないと思う
いるんだよな。。既存権威マンセーしとけば問題ないと思ってる馬鹿
五毛はこんなところにわいてくるのか
deepmindに日本人ていた?
CNNで画像分類の研究してるのですが
最近の画像分類でデファクトスタンダードでよく使われてるネットワークってどんな奴があるんですかね?
自分はVGGとResNet18くらいしか使ったことがないんですが、これ結構ネットワーク古いので最新のを使うと精度が向上したりしますかね?
おれくらいになるとyoloで自宅周りの不審者監視システム作っちゃうね
凄いなぁqiitaで是非公開してください。
おながいします
>>972 ぶっちゃけほとんど変わらんと思う
与えるデータが全て
1つのシステムだけで結果を得なくてもいいんじゃね?
アンサンブルで目的をより良く達成できるならそれで良いと思う
>>972 ResNeXt, EfficientNet
明けましておめでとう
今年も皆んなで機械学習の勉強頑張ろう!
>>984 乙
VOC2012の23番目のクラスになれますように
中国「千人計画」に日本人研究者44人を 確認
辻井某もこれなの?
>>986 全員処刑でいいだろ
金に目が眩んだ小童の末路として相応しい
別にどこの国のために働こうが他人がとやかく言うことではない
向こうの方が報酬や研究環境がいいのなら日本も報酬・研究環境の向上で対抗すればいいだけのこと
まあ実際研究者をヘッドハンティングしたい奴等からしたら日本の研究者はチョロいだろうな
研究者の目的は研究であってお国への貢献ではないのだから出資元がどこの国だろうとよりよい研究環境が得られるならそっちに移るのは自然なことだろう
なぜそんなことに驚いているのか理解に苦しむ
>>993 そうそう、スポンサーされて悔しいのなら、自分がスポンサーになればいいと思いますね
北朝鮮、パキスタン、イラン、ロシア、シナに雇われて嬉々として働く()
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 136日 6時間 1分 10秒
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/ ▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
lud20250227090414caこのスレへの固定リンク: http://5chb.net/r/tech/1597882603/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像
↓「【統計分析】機械学習・データマイニング29 YouTube動画>2本 ->画像>3枚 」を見た人も見ています:
・【統計分析】機械学習・データマイニング9
・【統計分析】機械学習・データマイニング27
・【統計分析】機械学習・データマイニング15
・【統計分析】機械学習・データマイニング28
・【統計分析】機械学習・データマイニング8
・【統計分析】機械学習・データマイニング32
・【統計分析】機械学習・データマイニング27
・【統計分析】機械学習・データマイニング20
・【統計分析】機械学習・データマイニング26
・【統計分析】機械学習・データマイニング21
・【統計分析】機械学習・データマイニング34 (30)
・人工知能ディープラーニング機械学習のための数学
・人工知能ディープラーニング機械学習の数学 ★2
・【機械学習】ソニーがディープラーニング用“コアライブラリ”をオープンソース化。Pythonで利用可能、GPU実行も
・人工知能ディープラーニング機械学習の数学 ★3 (276)
・「プログラマーを目指してる? だったらまず機械学習の勉強をしろ。年収がまるで違う」
・モテない理系プログラマはAI, 機械学習を勉強しよう
・【あっ…】任天堂が機械学習によるアップスケーリング技術の特許を申請【察し】
・コロナ前のデータで訓練された機械学習モデル、現在完全に破綻
・【Google】グーグルでは機械学習を用いることで、ネトウヨを排除するシステム作りに力を入れている
・【IT】グーグル、歌詞に合わせてメロディを自動作曲する機械学習システム--公開特許に
・アフィサイトのをコピペプログラマって機械学習みたいなライブラリが次々仕様変更される分野だと簡単に詰むんだよな
・東北大、量子コンピュータ「D-Wave 2000Q」を日本で初めてクラウド利用すると発表!最適化問題や機械学習に使うらしい
・マイニング株、暗号資産関連株
・【初心者用】マイニング情報交換スレ50
・HDDマイニングについて語るスレ 15EiB
・マイニング赤字ヘッジファンド?
・【CPU/GPU】マイニング情報交換スレ66
・【CPU/GPU】マイニング情報交換スレ72
・【CPU/GPU】マイニング情報交換スレ86
・【CPU/GPU】マイニング情報交換スレ94
・Yobit ドネート・マイニング・ダイスキ
・BITCOIN ビットマイニング始めました BTC
・【マターリ】マイニング雑談スレ Part.9
・【マイニング】マイニング質問スレ Part.16
・【未来】マイニング工場は全てがスクラップに!
・【機械学習】株価予測
・機械学習教えてください
・カオス理論で知られる複雑な状況を「機械学習」によって正確に予測する技術が開発されている
・AI、機械学習の教材って何使った?
・【IT】機械学習の波、メモリーへも
・【技術】AIが衰退期に 機械学習エンジニアが職を失う ★3 [雷★]
・【商品】「Google Cloud」で利用できる第2世代の機械学習向けTPU発表
・【敵対的機械学習】カラープリントした紙で「AIの監視」から逃れる方法[04/29]
・【IT】7000年前のうんちが「ヒトのうんち」か「犬のうんち」かを機械学習で見分けてくれるAI 『CoproID』爆誕[05/06] ©bbspink.com
・【R】統計・機械学習ツールスレ【jupyter】
・【技術】AIが衰退期に 機械学習エンジニアが職を失う [雷★]
・【技術】AIが衰退期に 機械学習エンジニアが職を失う ★2 [雷★]
・【AI】米国議会図書館が機械学習で300年ぶんの新聞の画像を抽出し検索可能に [しじみ★]
・【材料】6次元の揺らぎがもたらす準結晶の奇妙な物性 機械学習分子運動力学シミュレーションで解明 東大など [すらいむ★]
・【素材】機械学習とナノ3Dプリンターで「鋼の強度と発泡スチロールの軽さを兼ね備えた新素材」の開発に成功 [すらいむ★]
・【AI】生成AIの学習データに児童虐待画像 米大学研究者が指摘 [すらいむ★]
・ウイニングポスト総合スレ448
・ウイニングポスト総合スレ372
・ウイニングポスト総合スレ417
・ウイニングポスト総合スレ337
・●キングロコマイカイ川田
・ウイニングポスト総合スレ379
・ウイニングポスト総合スレ355
・ウイニングポスト総合スレ343
・ウイニングポスト総合スレ361
・ウイニングポスト総合スレ317
・雑談 ウイニング11
・ウイニングポスト5 その2
・シャイニングニキ Part.5
19:48:12 up 3 days, 16:57, 1 user, load average: 42.65, 47.45, 42.90
in 0.23639893531799 sec
@[email protected] on 091608
|