◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【統計分析】機械学習・データマイニング19 YouTube動画>2本 ->画像>5枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/tech/1520586585/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/ DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76 ■前スレ
【統計分析】機械学習・データマイニング17
http://2chb.net/r/tech/1502032926/ 【統計分析】機械学習・データマイニング18
http://2chb.net/r/tech/1507807291/ VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
理由ちょっと考えてみたけど まばたきとか目線とかかな
あんな前時代的な町工場的ハイポリモデルはほとんど無価値だ
この方が衝撃やね
最近、AIはパーセトロンが〜とか、 活性化関数が〜とか、 AIは脳をモデルにしてるから〜とか、 言い出す輩が減って正直嬉しく思ってる。 生態モデルが最適なモデルかどうかはそもそも立証されてないし、 NNは生態モデルと言えるのであれば、 既存のシュミレーションである有限要素法なども、その動作原理の類似性(例えば有限要素法もただ関数の係数の重みを計算してるだけ)から生態モデルと言えてしまう。 雄一解と解の収束性が保証されている点で全く性質が異なるのに。
昔から人工ニューラルネット、工学モデルと言われているがw
ローゼンブラットがパーセプトロンを発表したときに何に着想を得て作ったかという話でしょ
「学習」だと知性があると勘違いしてしまうので、 「フィッティング」とか他の言葉で表現してほしい。 AIを紹介するテレビ番組を見てると特にそう思う。
>>14 フィッティングだけでも「学習しない馬鹿な人間」よりも上だったりするからな
究極を言えば人間も筋肉を出力とした誤差関数のフィッティング
人差し指にすこ〜し力を入れるだけで人生が大きく変わってしまう現代でなにいってだ?
目先のお金のために騙すようなことすると、実は大したことやってないとバレた時に信用を失うよ。
2つのデータセットがあって 両方混ぜて学習させるのと片方学習してからもう片方では結果はかなり違う?
進歩はやい分野で昔作ったものをたいしたものじゃなかったと言われても困る
特徴量Xの選択や出力Yの確率分布関数の選択は人間がやっているのに、 それを明確に伝えずに「学習」とだけ素人に言ってしまうと、そこに人間の意志は介在しないと受け止めてしまう。 わかってて伝えていないとしたら、不誠実だよね。
>>41 いやいや14の意見は機械学習の動作原理よく理解していればまともな意見だと思うけど
囲碁将棋でAIに全然勝てないから、俺達の方がバカってことでいいよ
機械学習は単なる統計学の 発展した形っていうのが実情だろよ
『ゼロから作るディープラーニング』のアマゾンレビューを久々に見たが 低評価が目立ってるな…。 あとゼロから作る自然言語処理をテーマにした続編が出るそうだ。
あれは良書だと思ったけど ハードルを低くしたから変なのが評価しているのかも
あーRNN(LSTN)方向にいくんか kerasでDNNとZQNがよかったな
インターフェース 2018年5月号 買った人 or 見た人 いる?
学習用作成したデータの標準化って、要素単位でやるんですよね 配列全体をひとまとめに標準化するんじゃなくて
次元です(体重、身長、性別(ダミー))とあった場合 体重は体重だけで標準化、身長は身長だけで標準化、ダミーはそのまま に加工すればいいという感じでしょうか
計算は要素単位だろうけど標準化は配列全体をひとまとめに扱わないと無理じゃね
黒木玄 Gen Kuroki
@genkuroki
#統計 #Julia言語
#機械学習 の話を調べると、過学習を防ぐために「適当なところで最適化過程を止める」のような「極めて怪しいこと」(笑)をやっているようです。
その「極めて怪しいこと」(笑)の様子を単純なモデルで見てみたかったので、動画を作ってみました。
添付動画は n=64, d=3 の場合
https://twitter.com/genkuroki/status/977913862560165888/photo/1 #統計 #Julia言語 動画1つ当たりの作成時間は約12秒です。
https://gist.github.com/genkuroki/c440bc748ba230921c1a1f3613053b21 …
http://nbviewer.jupyter.org/gist/genkuroki/c440bc748ba230921c1a1f3613053b21 …
>>67 過学習なんて、倒立振子の時代から問題になっていましたよ‥別に新しい話題ではないね‥
>動画1つ当たりの作成時間は約12秒です。 頭に浮かんでから12秒なら凄いけど
機械学習における過学習は、機械学習が出てきたときからあるし。 過学習として考えれば別にこの50年で出てきた話題でもない。 スゲー昔からの話
overfittingの歴史ってどこから始まってるの?
坊やがまだパパの金玉の中で尻尾振って泳いでいた頃からさ
カスゴミの異常なまでの噛みつき方は過学習の結果かもしれんぬ
>>86 それぐらいディープラーニング普及してるかな?
まあど素人の俺がtensoflowやchainerやkerasいじっているんだから結構普及しているのもな?
「天才」年収1億円で採用 ゾゾ、先端技術の人材募集
http://www.sankeibiz.jp/business/news/180402/bsc1804021958007-n1.htm AIやビッグデータ処理、ロボット工学といった技術系を中心に、博士号取得者、研究員などから
年収1千万〜1億円の「天才」枠は最大7人。年収400万〜1千万円の「逸材」枠は最大50人
ゾゾの社長ってこの前62億円の絵画を買った人
ちょっと前に DeNaが儲かっているからってそこに就職するような層が 飛びつくんだろうな
>>92 新興のIT企業の場合そもそも永久就職する前提で就職しない
数年で成果上げて次の職場に進むか起業すればいいから就職先は今さえ儲かっていれば特に問題ない
機械学習がいくら人工知能だと持て囃されても 結局は全部誤差関数を最小化してるだけでベイズ推定とか線形回帰から進化してないんだよな
まあ、機械学習が人工知能というわけじゃないわな。 機械学習を利用して人工知能を作ったというだけで、人工無能もつくれる。
ディープラーニングよりも 線形関数のほうで解決出来るケースが 多い気がするのはワイだけ?
問題設定によるとしか 画像音声自然言語は無理じゃね
>>98 だいたいはそう
しかし事例はまれだか重要なレアケースを拾えなくなる
>>98 >線形関数のほうで解決出来るケースが多い気が
結果の良し悪しを度外視してみた場合には
扱いも作りも楽だから適用しやすいのでそれは言えるだろう
同じことから汎用性を考えればそういえると思う。
良い結果を求めたいという話(今回はそう書かれていない)になると
話は異なるが、今回は人が線形でという前提になっているので。
もし、計算のアルゴリズム自体をAIが自動的に作成してくれると
なった時には、違うでしょうね。
AmazonML(Amazon Machine Learning)を使っている人いますか?
使用している方がおられるということなので ぜひ可能な範囲で教えてください チュートリアルにモデル構築についてあまり書かれていないのですが AmazonMLは ・モデル選択不要(最適モデルをAMLから提案)なのでしょうか? ・リアルタイム処理、バッチ処理というのがありますがオンライン学習(逐次学習)にも対応可能でしょうか ・ローカルでRやPythonその他を使った機械学習に比べて使用感はどうでしょうか ・どのような用途で利用しているか(実務 or 学習)
ワイの美人と評判の妹も AmazonMLに興味あるみたいだから 答えて欲しいだ
これって自前のデータをkaggleにアップロードして分析可能ということかな
しかもタダで
グーグルさんどんだけ太っ腹なんだと
http://blog.kaggle.com/2018/04/03/q1-2018-product-update/ 卒論で1年かけてディープラーニングやることになったんですが テーマをもらっただけで何から手付けていいかもわからない状態です 入力ベクトルあたえたら出力ベクトル出す予測器があって 出力ベクトルに対して誤差とかスコアを設定すると 予測器の中身の関数がかわっていくみたいな?認識であってますか? JavaかCしかかけないのでその2つでサンプルコードがあったりしませんか? pythonでデータをつくってライブラリにおくるだけみたいなコードはよくみるんですが 中身の部分の実装が知りたいです あと何に応用できるかがよくわかってなくて とりあえず教師無し学習でネット上の文章から知識獲得して勝手にしゃべるようなAIを作るか 教師あり学習の例として何かパズルゲームをとくようなAIを1年かけてつくりたいなーとなんとなく思っています たとえばゲームをディープラーニングでとかせようと思ったら ある局面を入力にして出力にはとりうる行動パターンを設定する感じになるんですか? 最終的にとけた場合にしか評価ができないんですけどどういう風に誤差やスコアを設定すればいいんでしょうか 長文になってしまってすいません 参考になるサイトとかがあれば教えていただけるとうれしいです
実装をCとかJavaで造る(車輪の再発明)のが目的なの? それとも応用する研究?
C言語で書かれてるライブラリならdarknetがあるけど、実装が目的なの? 応用にしてもどういうアプリケーションができるか教授と相談した方がいいよ
>>113 ,114
卒研なのでそのへんも自分できめていいんだと思いますけど
最悪ライブラリにデータ流し込んでグラフ描いて適当な考察のせておわりでもいいんですけど
1年あるしプログラムかくのがすきなのでできれば中身をかいて理解したいなーと思ってます
ディープラーニングをやるだけじゃ何もテーマ決まってないのと同じだよ
ライブラリの中身知りたいならゼロから作るdeep learningがCNNまでをライブラリ無しで実装しているのでオススメ MLやってる絶対に研究室ならあるだろう 強化学習は結果をもとにそれまでの手の評価を行うから最初モンテカルロになるのは仕方ない alphagoも同じようにランダムに打って結果から評価してるのは同じだけど 評価関数をあらかじめプロの棋譜で学習してるから途中の手筋である程度の収束させてる
>>116 画像認識とチャットボットとゲームAIあたりがいまうまくいってるみたいで
何かサンプルプログラムできたらなーってぐらいです
ちょっとゲームAIに応用するならどうなるのかなって考えてるところで
入力の与え方は分かるんですけど
出力と誤差の設定の仕方がわからなくて…
たとえばマインスイーパーをとかせるとかだったら
盤面情報を入力ベクトルにして 出力に開くマス「X,Y」とかを設定すればいいんでしょうか?
その場合フィードバック誤差は爆弾をふんだ時点で-1 クリアまでいったら1とかにすればいいんでしょうか?
プログラムで誤差の逆伝播でニューロン関数のチューニングを実装すれば
利用者は入力出力誤差のエンコードだけやれば
あとニューロンの関数チューニングは勝手にやってくれていつのまにかAIができてるって感じになるはずなんですよね?
>>117 ありがとうございます
書籍なんですね
4000円もするの手が出ないので研究室にないか明日みてみます
なければ図書館さがしてみます
ごめんなさい やっぱりちょっと1週間程度できまったテーマでいきなり質問できるレベルじゃなかったかも 数ヶ月ほど勉強してからでなおしてきます レベル低い質問してすいませんでした
ゲームのAIはA*アルゴリズムとか習うんじゃね テーマとしてディープラーニングが与えられるんなら、これまでに機械学習とか人工知能の授業があったろうに、いろいろ設定がおかしいよ
A*って将棋とか相手のいるゼロサム対戦ゲームで枝狩りする探索アルゴリズムじゃないです? もちろんルールをコーダーが理解して最適なプログラムくめば一瞬ですけどAIっていうんですか? ルールを直接コーディングせずにクリアできたかできないかって情報だけで 勝手にルールを理解してとけるようになるってのが機械学習だと思ってました マインスイーパーを例に出したのは知ってる中ではそこそこお手ごろだったからなので ディープである必要はないかもしれないです
>>112 >>入力ベクトルあたえたら出力ベクトル出す予測器があって
出力ベクトルに対して誤差とかスコアを設定すると
予測器の中身の関数がかわっていくみたいな?認識であってますか?
いんじゃね
ゲームAIは全然詳しくないから全然アドバイスできないけど Deep Q Networkとか流行りすぎてqiitaにまとめられた記事大量にあるからそれ読んでみたら? 強化学習は使うだけならkeras-rlとかchainer-rlみたいな超便利なライブラリもあるから
卒研の後書き 2chのみなさんに感謝いたします(笑)
かつていたが わざわざ大学入り直してまでやる内容じゃないな
>>118 上手く行くのが判ってるのをやっても価値がない論文
以下はアルゴリズム ダイクストラ法と、その派生のA* グラフ/ネットワーク理論系の、NetworkX 計算時間が何百億年も掛かるのが、数秒で解けた 「おねえさんの問題」で有名な、 湊真一の超高速グラフ列挙アルゴリズム ZDD
なんだかんだ言ってちゃんとアドバイスしてくれるのなお前ら ツンデレかよw
パーソンオブインタレストに学ぶAI攻撃型AIの設計と実装
パーソンオブインタレスト面白かった。もう終わったかな
盤面入力に負値を使うと活性化関数でハマるからおすすめしない 囲碁やオセロなら入力盤面を2枚以上にして、白と黒を別々の盤面の0/1で入力するのが定番だと思う 学習中のAIは重複打ちをすることもあるから、さらに打てる場所用の入力盤面を追加したり 特定の場所に注目する様な盤面を足すこともあると思う 計算処理の実装よりも、モデルやパラメータの作り直しの方が大変かもしれない
評価関数の最大化とかではなく少ない計算量で学習させて正解に辿り着くようなアプローチってどっかにないのかな
機械学習で、おっぱい触らせてとかエロい口説き実装出来ますか?
>>137 >口説き
これはその方法論を知りたいですねえ
>>137 そのGPUパワーでビットコイン採掘した方が口説ける確率上がると思うw
日経ソフトウェアが別冊付録付きでpython機械学習特集になっとった
>>141 そういえば、2020年待たずに、ビットコインに絡む電気消費量が 全米の電気消費量を越しちゃうんだって。 ビットコイン無理そうね。
ほとんどがエアコン代でさ ロシアみたいな極地の勝利
jupyter labとnotebookどっも括弧やクォーテーションの補完が効かないんだけどデフォ? それともなんかおかしい?
大学の社会学部で以下のような刷り込みをされた。すなわち、人間関係を非常に重視し、なんでも彼らの中で相談したうえで自身の判断を下すような輩は「他人志向型」で「内面志向型」に比べて程度の低い人間だと。 しかし弱学習器アンサンブルを手中にしている前者の方が正しい判断を下せるのでは?
前者はAIでも可能 後者が出来るのは人類と宇宙人だけ
某中堅の監査法人に勤めていて、1年ほど前から、人工知能を使った業務の自動化を検討して、 私もそのメンバーに選ばれましたが、私も含め周りの人間も手探り状態です。 大学は商学部出身なので、高校数学からやり直し、大学の線形代数、微分積分、確率 とやってきて、今、統計学(学士以上、修士未満、測度論の手前まで)を一通り学び終わったところです。 資格でいうと、統計検定準1級合格レベル(来月受験予定)、品質管理検定1級、アクチュアリー一次試験・数学合格。 ここまでだと、大学のカリキュラムや資格試験の出題範囲に沿って勉強していけばよかったのですが、 このあと、機械学習・データマイニングへと進んでいくには、どういうカリキュラムを組んで良いか途方に暮れています。 何か道しるべになるようなサイトやアドバイスを頂けないでしょうか?
機械学習なんか数学わからなくても適当にライブラリ突っ込めばなんとかなるだろ
>>158-159 着地点は実装ですが、前提として理論はしっかり学んでいきたいと考えています。
以前にも、コンサルティング会社とシステム会社にオブザーバーをお願いして、
内外のツールの選定作業をしましたが、どれも実務上使い物になるものはありませんでした。
お前が作ったやつが実用になるとおもってるのか(苦笑)
業務の自動化に費やした時間>通常業務時間 となるのが目に見えてるな。 内部の人間しか細かい要求に答えられないと思われるが、システムの継続と保守を考えたら外注するのがコスト的にベストだよ。 需要に合ったものが出来ないのなら、コミュニケーション不足と考えたほうがよい。
>>160 もう、自分たちで作るしかないな
理論からしっかり組み立てて
試行錯誤の後、3年くらいで使い物になるものが出来るんじゃね?
専用にプログラマ雇ったほうがいいのでは? 本業とひっくり返りそうだ
システムの継続と保守ってとこが、無限に金吸い込まれて行くブラックホールになるんだよな。
コメントありがとうございます。 内製か外注かという点については、内部でも会議が重ねられましたが、 情報漏洩防止、株主代表訴訟対策、ノウハウの蓄積、コンサル業務への将来的発展性など もろもろの諸事情を勘案して情報戦略として、内製ということで決まりました。 今は所内で社内SEを育てようと、私も含めてここ1年間はずっと社内・外部研修&自習学習で、 本業からは外れています。経験者採用もやっていますが、なかなかこの分野での研究実績が優れた人は見つからないですね。
理論寄りの話はコンピュータ科学、実装寄りの話は情報工学やソフトウェア工学を学ぶのがいいと思うよ。
ツイッターで CNNが畳み込み演算ってのは間違いで 正しくは相互相関だぞってキレてる 畳み込み警察いてわらう
>>155 人工知能を使うことが目的になってるように見えるけど、人工知能でどういう問題を解決したいの?
> 某中堅の監査法人 ってあるから 検査の結果が異常かどうかの判定や 品質の予測かな だとしたら 既存のディープでない機械学習で十分に思える
深層学習の畳み込み層の処理は「畳み込み」じゃなかった件
http://tdual.hatenablog.com/entry/2018/05/02/113110 https://twitter.com/tdualdir/status/991505578311667712 正しくは相互相関 なぜConvolutionalと名付けた まあ、ただの名前だし、数学の用語が誤用させるのはよくある
T2@T_Shuke
微分・積分・統計学を学べばconvolutionは幾度も出てくるけど、勉強してこなかったデータサイエンティスト(笑)はcnnで元来の意味とは異なる畳み込みを先に覚えてしまうということか
tdual@情報幾何
おい。畳み込み層の処理は畳み込みじゃないのかよ。
相互相関かよ。
きくらげ@Kiikurage
最近の「CNNは畳み込みじゃない」論争、なにが発端?
なんかこえー畳み込みおじさんいて笑う T2 @T_Shuke 微分・積分・統計学を学べばconvolutionは幾度も出てくるけど、勉強してこなかったデータサイエンティスト(笑)はcnnで元来の意味とは異なる畳み込みを先に覚えてしまうということか T2 @T_Shuke できない、やらない、聞く耳を持たない、常に上から目線、大企業病の自称大企業の自称データサイエンティストは業界の面汚しだと自覚してほしい T2 @T_Shuke データサイエンティストは確率積分方程式とか勉強するの? T2 @T_Shuke 確率論もさることながら統計学もやらないでデータサイエンティストを騙る人が多くて恐ろしい
実際、CNNが畳み込みだと思ってる馬鹿が多いことに呆れるだろ ここにもいるみたいだけど まあそれだけディープニューラルネットが馬鹿でもそれなりに使えるようになったってことだけださ
あなたは心の病気だよ 相手が誰でも喧嘩を吹っかけて勝った気にならないと落ち着かない症状 しかしそんな事じゃ本質的な解決を避けてるだけだから いつまでも満たされずにいつも不安になる そして不安を一時的に誤魔化す為にまた喧嘩してマウント DLの事など全く関係が無い 少しでも勝てそうなポイントばっかり探して勝とうとするだろ 負けそうになったらすぐ退散か話題をブチ切り 医者に相談するレベルで異常だよ 少なからずあなたのような人はいるけどいつまでもやってると全員にNGされて一人で絶叫するだけ 以前にも指摘されてたろ こう書いても無視か絶叫だろうが 何らも会話する要素が無い 知らない人はあなたのコメントに惑わされることもあるだろうが ウンザリ
単純なデータマイニングだったとしても 今ならAIと吹聴できる雰囲気
>>183 そもそもAIに統一見解などないので何でもAIと言ってもいいしAIでないと言ってもいい
この説明もわかりません 「例えば、8,000人の子供がそれぞれ第5希望まで希望を出すと、5の8,000乗通りの組み合わせが出てきます」 保育園の数をnとするとこども1人あたりの希望のパターンは5通りではなくて n x (n-1) x (n-2) x (n-3) x (n-4) 通りになるように思えるのですが
ちなみに以前からいる数オタサラリーマンはID:5AtpQsf4aではないから一緒にすんなよ
>>184 最適化には見えるが、シンプレックス法を使っているかどうかは
だれがみてもわからないでしょ。
>>187 最狭義に解釈したら全脳シュミレーション。
ある個人が1日に10回体重を計ったデータが100日分あるとしてください いわゆるディープラーニングでは、その10個のデータを渡せば特徴量間の関係も織り込んだ予想をしてくれるのでしょうか それとも最大値と最小値の差や標準偏差といったものを算出して特徴量として使うほうがいいのでしょうか?
同じ人の体重が1日10回の100日あったところで微妙な体重の増減しかわからないし、ディープラーニング関係ないんじゃないの?
>>193 最近の流行は前者ですね
1000サンプルでは全く足りないと思いますが
>>193 特徴量間とか言って体重以外にどんな特徴があるかわからんし何させたいのかわからんからなんとも言えない気がする。
話をぼやかすのはいいけど大事なとこも飛んでるんじゃないか
>>195 ありがとうございますその方向で始めてみます
>>194 , 196, 197
すみません例えが悪すぎました
マイクロソフト、FPGAを用いたAI処理基盤「Project Brainwave」開発者向けプレビューを発表。GoogleのTPUより高性能と。Build 2018
https://www.publickey1.jp/blog/18/fpgaaiproject_brainwavegoogletpubuild_2018.html >>201 話を聞かないだけで裏で動いてる
大半の人は使ってるよ
試用期間だけ使って放置してたら営業から電話かかってきて乗り換え先聞かれたよ あんまうまくいってないんだと思う
>>200 ニコニコドワンゴのFPGAはどうなったんだっけ?
断念したんだっけ?
>>201 あんたが知らないだけ。
今のMicrosoftは、WindowsやOfficeじゃなくてクラウドの会社。
千葉 雅也『勉強の哲学 〜来たるべきバカのために』は、昨年度の文系書籍部門ベストセラーだったけど買わなかった。 さっきなんとなく立ち読みしたら、機械学習的発想だった。「バカになれ」とは「全体を見ないで専門バカにならないために、適当に勉強を切り上げて、 次の流行に次の流行に…と軽薄にやりつつ、試行錯誤の経験を蓄積するためにバカにされることを恐れずにイタイ発言とか作品発表とかもどしどしやろう」っていう事らしい。
まあおそらく、全ての知識は陳腐化するから全ての人はバカになる。だから、バカを極めた超バカは超賢いに?!?
さっきインスタンス死になりかけた。 ギリギリ、ランチのフランス料理にいいワインつけてデザートとった程度で気が付いた。
>>210 面白そうな人だね
プログラミングでいえば、
C++ の求道的な道には見切りをつけて、javascript ruby, php, らの流行のフレームワークを追いかけつつ
糞なプログラムもどんどん書こう、
ということですか
過去のAIブームと同様に機械学習ブームも早晩終わるわけで、根底にある統計学的な理論を理解しようともせず ブラックボックスのパッケージ使うだけの人はこの機械学習ブームからは何も学べていないに等しいと言える
RDBMSの理論的背景を知らなくたって、ただblogサイトを作るために(Wordpress等のために)MySQLを使うことはできる。 機械学習のプロダクトも簡単なものから順に日用品化していくよ
>>215 日用品化していくからこそ、それを単に使えるだけという能力には徐々に価値がなくなるので背景の理論の理解が必要ということ
ニューロファジィ洗濯機とかあったな あのブームは何故終わったんだろう
基本的にAIと呼ばれたものが一般に広まって当たり前に使われるようになれば単なるアルゴリズムの一種としか見なされなくなるから過去のAIブームの産物も消えたようでこっそり生きている ただAIと呼ばれることがなくなっただけ
>>210 一つの学習器だけ使ってると過学習するから弱学習器をいっぱい積み重ねた方が汎化性能良くなるよ、って話かな。
人間としてどっちが上等とは一概に言えない気もするけど。
たしかに人間も過学習で馬鹿になった人をいっぱい見かける
>>217 最高性能を追求するならそうだけど、SOTAの8割の性能でいいから自動化したいみたいな用途なら出来合いのお任せでも十分
>>223 労働者目線では出来合いのおまかせなら誰でもできるわけで給料が上がりづらいので、
理論を体系的に理解した上で各時代の最先端(その時点では簡単に出来合いのものを、というわけにはいかないもの)が扱えなければならない
年を負う毎に技術が高度化しているから、技術格差が所得格差に繋がるのは必然でしょうね。 昔は、スタンドアローンのスクリプトが書けるだけで、月に200万円も貰えた時期がありましたが、 今じゃ、学生さんやお年寄りでも、使える人がいる。一方で、今でさえ、それすらできない人もいる。
現状こんなところ システムを使うだけのオペレーター:年収300万円(AIに取って代わられる可能大) ライブラリーを呼び出して使うだけのエンジニア:年収600万円(今はIT人材不足だが、将来的には単価下落の方向) そのライブラリーを作れるエンジニア:年収1000万円(技術力を更新できれば、単価維持も可能) オリジナルの技術でビジネスモデルを構築できるエンジニア:年収1000〜∞万円
>>229 >いずれ壁にぶつかるよ
それは、オマエの狭い狭〜い了見からの思い込みにすぎない。
壁にぶつかるか、壁を突き抜けていくか。壁を突き抜けていくと考える研究者の方が多数派。
最近のトップカンファレンスでの発表を見聞きしていると、その確信が深まる。
>>229 ただ氷河期があるだけだよ。今のブームが終わると次は10年以上先に第4次AIブームがくるだろう(たぶん、きっと)
>>232 NIPS、IJCAI、ICML、ICANN・・・
e.g. GANs in ICANN2017
壁を打ち破る理論が出るのが早いか 投資家に見放され、陳腐な技術に堕ちるのが早いか
機械学習は進歩早いからオリジナルの技術って言っても何かに利用しましたっていう部分しかない。 ネットワームモデル自体の研究は研究者の仕事だ
競艇とか競馬の着順予想って順位を予測するのが多いのかな? タイムのほう予測できない? 👀 Rock54: Caution(BBR-MD5:8f50f269c4f2853ecd0dfe9a88a1b798)
つうかただのPGはどの分野でも400が相場だろ 500以上は管理職クラスだ
プリンターのお守り テープかけ カード読まし バブル期最低のハイテクバイト
>>246 流行の最先端を走ってるPGなら800はいける
米国なら青天井
>>249 >流行の最先端
今の最先端はなんですか?
今の労働市場で、PG400万円って、よほどこき使われているだろw 東京の話だが、600万円が中央値。フリーのPGなら800万円程度。
元請けはそのぐらいかもしれないけど、首都圏でも下請けには人月80万ぐらいで発注するから 手取りがその半分だとしたら500万ぐらいになると思う あと、フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない
売り上げ計算するより求人票見れば相場すぐわかるから
>フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない 800万円程度の年収で、年金と保険料で300〜400万円??? いい加減すぎだろww
サラリーマンには、サラリーマン(給与所得)控除があるから、 年収800万円でも、所得は500万円以下になる。 高年収のサラリーマンでも、ほとんど税金を払わない 大多数のサラリーマンが税金を払わない分だけ、 少数の自営業者が払うから、1人当たりの税金が異常に高い 年100万円以上違うから、30年で3千万円以上違う。 だから自営業者は家を買えないけど、サラリーマンは家を買える 少数派から搾り取っても、選挙で勝てるから、めちゃめちゃしよる。 老人が多いから、選挙で勝つために、年金収入も、ほぼ無税にしてる 主婦(配偶者)控除も大きい。 ほぼ無税になる これら多数派の税金を、少数派の個人事業主が払っている 年収8億のゴーンもサラリーマンだから、 サラリーマン控除で、ほとんど税金を払っていない こういう職業差別の身分制度を作っているから。 選挙で受かるために、多数派を無税にするから、その分少数派の負担が大きすぎる 個人事業主は選挙で、10票分以上持っていないと、 老人・主婦・サラリーマンの多数派に勝てない
家買えないほど格差があると分かっていてその点が重要なのなら自営業などやめればいいだけのこと
TensorFlowで機械学習デビューしたいんですけど、何かおすすめなカリキュラムありますか? ゼロから作るDeepLearningは読了しました 理解したかと聞かれると微妙な感じですが…
NICでも作ればいいんじゃない? 仕組み単純だし、GPUないときついけど
自然言語処理でコーパスって言葉が出てくるのですがこれはテキストデータの集合体を指すのかテキストデータを加工して名詞に分けたりしたものの集合体を指すのかどちらなのでしょうか?
>>260 回帰系・自然言語系なら、詳解ディープラーニング
TFとKerasのコードが載っていて分かり易かった
>>272 今流行ってるのはなんですか?
なぜゼロから作るDeepLearningに紹介されているにですか?
原理が難しいアルゴリズムは研究が進まないからどうせ流行らん
流行る・流行らないは結果が全て 機械学習で言えばより簡単により正確な結果が得られるなら流行るし、そうでないなら流行らない どうせ流行る・流行らないを決める側の人は原理など理解していないので難しいかどうかは重要ではない
流行関係無く研究させてくれるならコホーネンをやるですよ。
今回の流行は、素人でも統計解析のライブラリを呼び出すコードを つなげればなんかAI、機械学習!の研究が(手軽に)出来るじゃん 見たいな幻想が根底にあったと思うので 簡単さは流行の一要因だったと思う
初心者ですで頭おかしいこと言ってるかもしれませんが質問に答えて下さい 損失関数の極小解を出すためのアルゴリズムに確率的勾配降下法などがありましが、今主流なのはなんでしょうか?ライブラリはTensorFlowを使う予定です
>>288 答えて下さいよ
勉強足りないのは自覚しています
>>287 SGDは損失関数(loss func)じゃなくて最適化関数(optimizer)な
数式ちゃんと理解しないと学習率の調整が出来ないから、全部ちゃんと調べる様に
結局、バックボーンとなる数学的な理論を理解しないと何もできないんだよな。 ライブラリーはあるけど、使うだけなら、パラメータをチューニングするだけなら、 Excel使いと同じレベルだし、技術者でも何でも無い。 AI技術者とかいって客に高い単金を要求しているが、 普通のJavaとかphpのプログラマ未満の技術力しかない。
そりゃインパクトファクターの多い論文は基礎の理論を展開しているけど 大半の論文は学習方法や既存のネットワークの最適化だよ
理論が重要なのはわかるけど、ほとんどの人にとって知りたいのは導出過程よりも結論だけだろうしなあ。 そのうち理論なんか誰も見向きもしなくなったりしないかな?
理論が分かる人が新しい技術を生み出し搾取する側になれる 理論が分からず結果を利用するだけの人はいつまで経っても操られ搾取される側でしかない
>>296 >理論が重要なのはわかるけど、ほとんどの人にとって知りたいのは導出過程よりも結論だけだろうしなあ
こういう言い訳する人は多いが、導出過程を知ることが大切なのではなくて、
導出過程を通じて考え方を学ぶことが大切なんだよ。
そういう考え方を通じて正しい使い方は分かるのはもちろん、新しい発想が生まれる。
道具として使って結果が欲しいか、道具から新しい世界を発展させたいか。 車を使って移動したいか、車を使って新しい社会の仕組みを作りたいか。 目的に敵ってりゃどっちでもいいんでね? 全員が新しい発想しないといけないってこともあるまい、一般に利用しやすくなったのは素晴らしい事じゃないかね。
利用しやすくなるのは、技術者だけじゃなくてユーザーもそうだから。 「なんだ!これじゃ〜、AI技術者wwに頼まなくても、俺たちでやれるわ」 で仕事がなくなるだけ。 昔、静的なwebサイト作るのにも、一式30万円も50万円も取られた時代があったが、 今じゃ、その程度の奴はユーザー自身が本見て作るし、ランサーズで1万円も出せば、そこそこの奴作ってくれる。
中米の論文数に焦ってるやつが前にいたけどなんか落ち着いてるね
>>301 AIエンジンができれば誰でもできるようになるね。
>>299 車にガソリン入れるときにライターで口を照らすような人が減るのは良いね
_, ._ ( ・ω・)んも〜 ○={=}〇, |:::::::::\, ', ´ 、、、、し 、、、(((.@)wwwwwwwwwwwwwwwwwwwwwww
使うためには原理を理解するのが必要なんだよ。 株予測してみた、みたいのは数値予測させるのに画像分類のサンプルコードをそのまま当てはめて 上がるか下がるかで分類させてるひどいのもある
株や為替予測AIを作っている人は酷いモデルが多いね 自然言語AIまで勉強してないから、LSTMちゃんと使いこなせてない
>>311 どうせチャートとファンダメンタルズだけ組み込んで要人の発言とか新商品とか新技術の材料は組み込めない。
>>313 >要人の発言とか新商品とか新技術の材料は組み込めない
そういうのは技術的にAIに学習させたとしても無意味。
発表前に既に株価に織り込み済みだから。ちょっと株価を研究した奴なら分かる。
情報戦で勝とうとしても、上には上が居て厳然たる情報の非対称性もあって勝ち目なし。
一番確実なのは、明地文男の3点チャージ投資法。 公式サイトにも載っている それか、サザエさんの視聴率。 株価は半年先の予測だけど、サザエさんは、さらに早い 日曜夕方の視聴率が下がったら、仕事か外食してるから、景気が良くなる アノマリーもある。 たいてい同じ月に、上下する ゴールデンウイークには旅行して、秋には東京ゲームショウ、冬には花粉症とか、 株が上がる月が、決まっているから
まぁ、そういう気づきが大事だね。 従来の発想をそのままAIに持ち込んで、自動化とかいう発想じゃなくて。 俺も色々と発想を膨らませて予測している。
>>317 Rubyじゃないけど発表はクリスマス前とかボーナス前やろ
scikit-learnとTensorFlowによる実践機械学習っていう本買った ゼロから作る奴との橋渡しになればいいなぁ
自然言語処理AIの勉強が必要なのは、別に「要人の発言を組み込め」っていう意味じゃなくて Seq2SecとかAttentionとかの言語モデルの使い方をちゃんと理解してからLSTMで波形分析しようって意味なんだけど…
キズナアイが人工知能と聞いたんですが、ほんとですか
人工知能=人工的に作られた、知能を持っているように見えるもの なので基本的に受け手側の考え方次第で何でも人工知能になり得る
ライブラリを利用できるだけのプログラマーの間でも 特徴抽出のセンスだけで腕に相当の差がつきそうなもんだけど そういう組み込み系のエンジニアの年収はどのあたりの幅に収まるもんなんだろう
特徴抽出のセンスってデータの前処理の話? そのデータを長年扱ってて背景知識あるかどうかだよ
そっか、自分いま機械学習の勉強を進めてて 数学・統計学まわりから先にがっつり勉強したから機械学習本体の 学習がまだ進んでないような段階なんだけど、この先どの程度の年収の職に就けるのか 不安を感じている。これは世間で言われているほど美味しくないんじゃないか
>>331 お前にとって美味しいかは知らないが実力があれば今と今後、最も稼げるのはほぼそうだろ。
プロ野球とか芸能人とかも年収差はある。
>>331 >>246 君には輝ける未来が待っている(適当)
日本で一生過ごす前提なら結局スペック高かろうが低かろうが大して収入なんて変わらない
特殊スキル持っても一般では理解されず、学歴で見られる 漏れも出来るなら職に就かず稼ぐ方を進める
日本である程度稼いだら東南アジアに引っ越してダラダラと暮らしたい
年収600万くらいかねえ。1エンジニアで1000万とかまず超えない
日本では文系職でも理系職でも皆同じようにしか昇給しないからな 表向きは成果主義導入してても成果による差はごくわずか 公平感を保つためと言うがやる気のある人からすればむしろ不公平感しかない
現時点でAIデータサイエンティストとして院卒レベルの人材じゃないとノーチャンだよな 冷静に考えて足りないのは、機械学習の上辺を理解してる営業だけ 技術職のキャパはすでに上限ギリギリいっぱいな気がするわ 英語がネイティブレベルならまだ話は別かもだが 自分で事業起こすにしても 凄まじい計算資源がないとまともな事業展開は無理だから、超大手の研究や投資に依存せざるを得ない 量子コンピュータの機械学習への組み込みに成功したらなおさらそれが加速する 割と今ってディストピアまっしぐらじゃね?
データサイエンティストって職業成り立ってない。 雑用ばかり
問題はデータサイエンティストとしての知識を披露したいのに、結局凡人が理解出来る範囲しかデータを提供出来ないということ。 分かりやすくするためにいろいろ削った結果、言いたいことがほとんど残らない。 とりあえずクライエントが望みそうな方向に誘導するのが一番無難。
そういうのは論文か本かブログで発表するといいと思いう
いやだからお客様のデータを論文で披露するわけないやん
>>354 まともなAI(ω)なら会社変われって結論を出すと思うが
おまいは従えるか?
DSの仕事は日本にはそうそうないらしい 面接や就職説明会ではどの会社もいい部分ばかりみせるけど 優秀なDSを本当に活用できる企業はほんの一握りで、ほとんどのDSはアナリストのよう な雑務をこなしながら、いつか良い職に就ける日を夢見て独学で頑張ってるようだ でも英語を勉強すれば外資にいけるし、英語が出来なくても本当に優秀なDSなら、学歴か実績があれば最近はいろいろといい求人があるんじゃないかな
機械メーカーの研究開発職であちこちセンサー付けた自社製品の機械をひたすら動かしてデータ収集して 種々の解析して異常発生の兆候を見るための手法の開発してるけどこれはデータサイエンティスト? そうだとしたらほとんどの研究職はデータサイエンティストだろうけど
客のデータで重要な知見が得られたならそれは当然客が競争優位に立つために重要なので詳細を公表できるわけがない 自分の成果を第三者にアピールするなら自力でデータ集めからやるか、個別案件に依存しない新たなアルゴリズムの開発、公の機関との共同研究ぐらいしかないだろう
この分野もプログラミングと一緒で 何か個人で成果を出さないと認められない世界になってきた ということでいいのでしょうか?
そんなことないさ 極端は話、論文を読んで実装できるレベルで数学、数理統計学、ベイズ統計、機械学習の理論をしっかり理解し、 pythonおよびライブラリを有名どころ一通り使いこなせて C++かjavaでアプリを自由自在に組めて、rubyにも精通していて、SQLでDBの操作が出来て、前処理の実務経験も豊富で、本職のDSのようにRを使いこなせたら、年収1500万ぐらいは楽に稼げるだろう はじパタ本ぐらい読んでこの業界に入る人にとっては、そんなに遠いところでもないはず。自分はまだそこまでたどり着けてないけど
この業界で出来る人、ほんとにそのぐらい出来るぞ rubyはとりあえずアプリを組めれば何でもいい時にできるといいらしい(らしい)
pythonできるならpythonでやればいいだろう。
案外遠くないかも そこに自由自在に英語を使いこなすがあると、キツかった
ruby持ち出すあたりと言語の数でアピールするあたりは土方
>>369 rubyでやるようなことをC++でやるのは時間の無駄だろう
論文読んで実装できて、DBを操作できて、画像なり自然言語なりひとつ専門分野を 持っていれば、年収1200万以上の求人がちらほらあるな まあ、そういう奴は他にもいろいろと出来ることがあるんだろうけど
rubyやpython等のスクリプト言語はあくまでスクリプトでありその場で結果を確認しながらデータを操作するのに向いている C等のコンパイル言語はその場で確認といった用途には向かないが最適化すれば実行速度は圧倒的に高速 なのでスクリプト言語でデータを弄りながら方針決めをして、今後同様の操作を何度も行うのであればコンパイル言語でプログラム作成するのが正しいやり方
DSならほとんどの職場でRはメイン言語 機械学習エンジニアでも、DSと職務の分業が進んでなければ、なんだかんだで Rを使う仕事が回ってくることが多い てかうちがそう
日本なんかpythonエンジニア用無し。 アメリカは高収入なのに。 日本は未だCOBOLエンジニアの需要がある。
COBOLは退職間際のオッサンなら無理に他の言語学ぶ必要もないが、20代・30代がやるのは危険過ぎる 確実に現役中に需要がほぼ皆無になるのが確定してるから
あの何でもコピーして済ませようとする性癖が身につくと 他の言語では3流以下だしね
500以上の求人は管理職クラスになってくるからきついよ
DSはともかく、機械学習のエンジニアの求人は、1000以上でもスキル要件自体はそこまで厳しくないような… まあ。中身よく分からないけどライブラリ実装できます、みたいな奴は論外としても。 大学一年程度の数学を理解していて、はじパタ本に毛が生えた程度の、機械学習の理論に関する理解があって、自分の専門領域を自然言語処理でも画像認識でもとにかく一つぐらい持っていれば、それでスキル要件を満たすんじゃないか もちろん実務に関する細々としたスキルも、持ってること前提の話だけど
アメリカの場合、別にPythonが使えるから高収入なわけではないしな
流石にpython使えば収入上がるなんて夢想するバカはおらんだろ
技術力の豊富さ≠年収ではない この分野はいかに顧客を騙せるかが年収を左右する。
pythonのスキルが年収に相関があるんじゃなくて 機械学習的な知識が年収に相関あるんじゃね? てきとー
数学+統計+機械学習 +python+DB+クラウド+extra …… これで年収600ぐらいかな 自然言語処理とか、そういう専門領域を身に着けて、給料がすこし増える感じ 年収1000を超えている奴らは普段いったい何をやっとるんだろう
よほど機械学習で変わるような業務でないと給与は上がらんでしょ。netflixみたいに推薦がなければ事業が成り立たないような
元々そんなに年収高くないサラリーマンやってる前提の話なのか。 その会社にいたままで高所得は難しいのは当然だとおもうが。 転職やフリーは考えないのか。 たとえばテレビ業界とか年収高いほうだろうが、フリーアナウンサーになるのがいるが。
実際そうなんだよね。求人見ると、よさげなところがちらほらある 何度か転職を繰り返して、いろんな刺激をもらって成長していくうちに、突き抜けるんだろうか
【開戦空振り、XDay″】 トランプが米朝戦争、回避したので、九条改憲も、説得力を失った m9(^Д^)
http://2chb.net/r/liveplus/1528170899/l50 なんでうちのパパ年収1千万超えてたの? 営業マンのくせに
金の引換券とか和牛の権利を売りつけていたんじゃね?
>>393 この場合の数学+統計+機械学習ってどのくらいのレベルでしょうか
BishopやMurphyのテキストがちゃんと解読できるくらい?
なんで機械学習ってインタプリタ主流なの? 遅いじゃん
VIDEO 【大学数学】ベイジアンネットワーク【機械学習】
概出?
>>404 最新の論文を三日ぐらいで読めればOK
わりとゆるい
>>408 なるほど
あのレベルのテキストだと歯が立たない箇所が多くて
コンパイラ使うの面倒だからじゃね。 PDCAを早く回すならインタプリンタが楽でしょ
実験的にパラメータちょっと弄って変化確認するならインタプリタが最適 その後実運用する段階ではコンパイル型言語使って作り直してコンパイルした方が速度面で有利だろうけど実際のところどうする人が多いのかは知らない
Pythonは実行時にバイトコードにコンパイルする。いわゆる中間コード方式
結局、機械学習って、 技術追求してもデータに対するアプローチ(指標)が解らないと、詰む?
どうしてそういう学習をしたのかプレゼン出来ないと 資金源を断たれて詰む
>>415 グーグルのアルファ碁からしてわかってないけど発展してるだろ。
別にはなるが、ディープラーニングを広義に学習方法の自動学習法と捉えた場合。
使う手法が、多層ニューラルネットである必要はないわけだが。このへん進んでるか。
ディープラーニング - Wikipedia
しかし、近年、ヒントンらによる多層ニューラルネットワークの学習の研究や、学習に必要な計算機の能力向上、
および、Webの発達による訓練データ調達の容易化によって、充分学習させられるようになった。
その結果、音声・画像・自然言語を対象とする問題に対し、他の手法を圧倒する高い性能を示し、2010年代に普及した。
しかしながら、多層ニューラルネットが高い性能を示す要因の理論的な解明は進んでいない。
Wikipediaコピペは馬鹿にされるからやめたほうがいいよ
機械学習の個々のアルゴリズムには流行り廃りがあるけど統計学に基づく点には変わりないので 最新の機械学習のブラックボックス化された関数使えるより統計学を体系的に学んでいる人の方が長期的には有利
これは?
情報幾何への入門と応用
http://www.sci.osaka-cu.ac.jp/ ~ohnita/2006/inf_geom/sos_dan/book_0403.pdf
非加法的エントロピーを加法的エントロピーにする方法ーAdS/CFT対応の情報幾何バージョンー
http://www2.itc.kansai-u.ac.jp/ ~afujioka/talk/tanaka.pdf
CNNとLSTMを"deep"でひとくくりにしていいもんだろうか
>>413 バイトコードにしたからと言ってネイティブ機械語みたく爆速になる訳じゃないよ
for文とかアホみたいに書いてるよりスッキリnumpy使え
>>419 いまは実感が湧かないけど、たぶんだけど35歳とか過ぎた頃に違いが出てくるんだろうな
>>420 情報理論は場合の数の加法性の仮定が前提にあるから使えない。
後者の記事は条件が限定的過ぎて使えない
機械学習のブラックボックス化された関数うんぬんというけど 数学わからない癖に機械学習のアルゴリズムを組んでる 文系エンジニア的な奴はそんなにいないよなあ そんな入口そうそうない
機械学習ブームがここまで盛り上がるなど予想されていなかったので基礎研究からやってる企業を除いて機械学習の専門家を雇っている企業などほとんどない バリバリの理系出身だとしても大半は専門外の人間が錬金術的にパラメータ調整してたまたま上手くいっているだけで基礎から理解して使えている人はそうそういない 偶然の産物だろうが適切な出力が得られていればそれで構わないが、基礎が分かっていないと今後新しいアルゴリズムが主流になった時も同様に運任せで錬金術することになる
だとしたら、アセンブラ出来ない奴、デジタル回路が組めない奴、はみんな基礎が分かってないから 運任せでプログラムを組むべきじゃないなw 要は、各々の世代でどのレイヤーの知識が重視されるか?なんだと思う 今はベクトル数学や統計学のレイヤーとは離れた技術が上の層にどんどん積み重なっていて そろそろ分業しないと成り立たなくなる時代が来ている様な気がする
富士通のZinraiとか、金かけて、宣伝しているけど、 国内企業のAIってどのレベル? 某大手企業のを試用した範囲では、ゴミのような出来。 このスレの連中のような趣味でやってるレベルにも達していない。 「偶発的な適切な出力」という表現があるけど、 恐らく、作っている奴は、「適切」の指標すら解っていない。
大手企業つっても零細に丸投げしたの納品したりするから出来がまちまちなんだよ
東芝、NEC、オムロン、富士通、日立 みたいなところの研究所からは まともな研究が出ているけど それを商品化するところは丸投げするから 変なのが出てくる
日本のメーカーは組織が疲労している P ドラッカー
AIで会社経営を立て直すには過去の大量の成功・失敗の経営情報が詳細な内部情報とセットで必要であり それは一社及びそのグループ会社程度の規模では量的に足りなさすぎるので実質的に不可能と考えて良い
BIやっても それを読み解いて 活用できる経営者が居ないとね
機械学習って、統計学の横に色んなジャンルが派生的に発展していて 縦に発展しているようなイメージがないんだが 流行り廃りで、いま学んだ知識の大半が今後は通用しなくなりそうというか 業界の人たちはかなり悲観的だよね
派生部分しか理解していない人は流行りが終了すれば新しい流行りを1から勉強し直す 根幹となる統計学が理解できていれば新しい流行りの理解も早いはずなので流行り廃りに対応しやすくなる
大学程度の数学と物理をやっとけ。できるなら修士レベル。後は後からどうにでもなる。
あとからどうにでもなるなら、高卒でもいいだろ。 機械学習に必要な分だけ勉強すれば。
>>451 勉強などやる気さえあれば誰でもできるがそもそも高卒という時点で機械学習エンジニアとしての採用はほぼ閉ざされるから
企業のリソース使わず自力で機械学習でビジネス起こす当てがあるなら話は別だが
数理工学、数学、統計 が一番採用したいけど そもそも人口が無いから微積と線形代数だけ分かれば後は頑張ってみたいな感じだよ
数学・物理の出身者は、物事を抽象化して捉えるセンスが群を抜いてる。 論理性と違って鍛えることが難しいし
>>456 それほぼ一緒だとおもうが。たとえば、不完全性定理とか数学的抽象度が高いし論理的だろ。
不完全性定理
数学を基盤にし、証明を積み重ねていけば、
いつかは「世界のすべての問題を解決するひとつの理論体系」「世界の真理」に到達できるのではないかと信じられていた。
さて、1930年頃のこと。
数学界の巨匠ヒルベルトは「数学理論には矛盾は一切無く、どんな問題でも真偽の判定が可能であること」
を完全に証明しようと、全数学者に一致協力するように呼びかけた。
これは「ヒルベルトプログラム」と呼ばれ、数学の論理的な完成を目指す一大プロジェクトとして、当時世界中から注目を集めた。
そこへ、若きゲーテルがやってきて、「数学理論は不完全であり、決して完全にはなりえないこと」
を数学的に証明してしまったから、さあ大変。
ゲーデルの不完全性定理とは以下のようなものだった。
1)第1不完全性原理
「ある矛盾の無い理論体系の中に、肯定も否定もできない証明不可能な命題が、必ず存在する」
2)第2不完全性原理
「ある理論体系に矛盾が無いとしても、その理論体系は自分自身に矛盾が無いことを、その理論体系の中で証明できない」
http://noexit.jp/tn/doc/fukanzen.html >>454 実は機械学習のエンジニアの求人は学歴不問のところが多い
バイトから入るという裏技もあるから、やる気さえあれば高卒でも余裕でなれる
独学→バイト→正社員→お金を貯めて研究者
理論的には、無理ではない
あと自分は絶対にやらないけど 上でも言っている人もいる通り、やっぱり物理は出来た方がいいんじゃないか 機械学習+機械工学で年収2000万ぐらいの求人がちらほらある たぶん自動車でも作ってるんじゃないか この分野で突き抜けた年収が欲しければ、機械学習ともう一つ専門分野が必要だな 自分のいる世界とは別世界だけど
学歴不問って職務経歴だけ見ますって意味だよ。 金貯めて研究者ってどうすんのよ 大学編入するとこから始めるのか? あと物理と機械工学は別だから。
>>463 >>あと物理と機械工学は別だから。
そこらへん詳しくないから適当書いたスマン
でもバイトで職務経験つけて、そのまま正社員になった奴はうちの会社に一人いるぞ
年齢的に、院試を受ければ、研究者にもなれるんじゃないかな
>>451 高卒には越えられない壁がある
よほど貧乏で大学行けなかったとかでなければ
理解できる頭あれば大学卒業(あるいは修士以上)してるはずで
高卒が高卒たる所以
言うか! DS系なんだけど、ぶっちゃけネットでググるとすぐ出る ただ、バイトをたくさん取ってるわりに、フリーターから定着できたの俺が知る限りひとりだけ 他にもいるのかもしれないけど
>>466 毒親もな。連帯保証人無しでは学校も行けない。入院も出来ない。
中高生の時に虐待を受けていたからまともな精神状態で勉強に集中できなかったとか、 まあ色々なパターンがあるよね 高卒から這い上がってくる奴はいることにはいる そういう奴をまったく見かけないなら、逆にその人が見かけない世界にいるんだろ
そろそろ、wikiみたいな「集合知」って機械学習で置換できちゃうんじゃないかな どんなマイナージャンルでも、一人が「こういうキーワードでジャンルの情報集積を」って 指定すれば、入門的なハウトゥや歴史的なインデックスまで作れたり 将来的には検索ワードみたいに随時処理でそれらが出力されたりするんだろうけど、 現段階でも、入力された特定キーワードに関する体系立てた知識の集積は可能じゃない? たとえば、「ホラー題材のギャグ漫画」くらいだと、概要や歴史的サンプルをまとめられたり
>>471 機械学習は、所詮膨大な過去を根拠にしているだけだから、新しい知恵を生み出すことはできない
>>473 何事かに対して、どういったジャンルに属する話かと判断して、それを総括するフォーマットを
類似記事から引用する学習は可能だと思う
現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ
そこそこのマイナージャンルでも、テキストとして情報化されてきている
「データ群の前半に集中する情報を要約して『概要』とする」ことや、「年代と頻出で年表的に
フォーマットを形成する」のも可能だと思う
というか、Wikiの各記事においてすでにこういう「情報をまとめる上での構成」ができているんだから
それ自体を機械学習できるはずなんだよ
>>474 >現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ
一言で「似ている」というけれども、「犬と似ている」「猫と似ている」は現状の深層学習で実現できるとしても、
「似ているもの同士をまとめる」はまた別ではないか?
このタイプにおける教師データは成立するのだろうか?
>>475 「犬と似ている」と「猫と似ている」は、フォーマットとしてほぼ同じ語り口で記事になってると思う
同じようなフォーマットの記事から、頻出単語や構文を教師データとして、関連する情報として
拾うのは単純に機械学習の範囲だと思うけどなぁ
「同じような単語を同じような語り口で記述している記事」が教師データなわけで
>>476 >「同じような単語を同じような語り口で記述している記事」が教師データ
メタな構造そのものを教師データにできるものかな?
>>477 むしろそういう「言及」をデータとして扱わないと機械学習の有効性が意味を持たないと思うよ
「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある
それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない
>>478 >それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない
なるほど!
>「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある
二項関係から三項関係への進化は、今は出来ていないんじゃないかな?
Googleが猫の画像を判別させる人工知能を作るだけのために大量の猫画像を必要としたように、 wikiを作るとしたらその1項目毎に猫画像学習と同等かそれ以上の情報をかき集めて学習させる必要があるわけで 話題のcoinhiveみたいに世界中の各人のPCのリソース借りるような方法でもあれば可能かもしれないが特定の企業内だけで実現するには必要な計算資源が膨大すぎる
Googleが画像から猫を判断させたのは、教師なしのニューラルネットワークによる学習だよ AIによる学習結果は、その本質を理解しているという意味じゃない 「検索結果の中からざっくり中央値を取る」ようなもんだ 「〇〇について、どこの誰がいつから始めてこういう成り立ちだ」みたいなWikiっぽいレイアウトに まとめるだけなら、既存のWebページと電子化されてる書籍だけで足りるかと もともとWkipedia自体、外部サイトでの記述や書籍による出展が求められるわけで そうした情報がちょいちょい間違ってたりするのも現状と同じ
高卒派遣で機械設計やっていますが3年やっても年収300がやっとなので機械学習とPythonを学んで年収500万ぐらいになりたいです
付け焼刃の知識は、年収5000万overの人が作った機械学習自動化ツールに置き換えられそうだ。 というか、年収500万ぐらいならpythonだけでも有るだろ
>>487 pythonって日本では需要が無いのでは。
日本の大企業で機械学習やってますと言ってるところはどういう環境で開発してるんだろう?
自動制御システムを機械学習という人たちもいるからな
>>485 マセマみたいな簡単な参考書で、線形代数、微分積分、統計学の知識を大学一年生レベルまで習得
これなら分かる最適化数学、言語処理のための機械学習入門、はじパタ本を読む
プログラミングは、書籍だけで勉強する場合、pythonの参考書を最低五冊
また、英語を勉強して、論文を読めるようにするように
DB、クラウドの知識もほしいし、前処理についても独学しておいた方が採用されやすいだろう
カグルにもチャレンジした方がいいかなあ
あと絶対むずかしい参考書に手を出すな! 絶対だぞ!
むかしから日本は共有知を軽視してきただろ 今更なに言ってんだ
>>492 ご丁寧にありがとうございます
自宅学習がまるでできないのでまずは基本情報を取って自信をつけてみます
「〇〇入門」は山ほどあるのにその先を教えるものになると日本語の情報は激減するよな
どうせ、価値ある一次情報は国外からしか出ないから、まず、英語で良い。
新井女史が人工知能の最高峰な国、Japan。
https://booklive.jp/review/list/title_id/493315/vol_no/001 >>469 同意。そこらへんのことを本当に知らない人多すぎ。
まあぶっちゃけ、自分が思い浮かぶ程度の手法は、エクセル先生でできちゃうし、実務上はそれをわざわざRやらPythonやらでやるインセンティブもないわけで。
ロジスティック回帰とかそこら辺になりゃ意味あるがあまり機会がない。やらんでなんとなく過ごしてる自分が悪いだけ疑惑はあるけどw
https://twitter.com/ikasanma/status/1007588876251160582 流石にEXCELとPythonは使い道が違いすぎる
>>501 背景の緑のマトリックスみたいな画像がpython関係なくてダサすぎる
Excelは昔から統計分析でも使われてきたし変ではない。 今更と言われるくらいにパイソンも昔から存在したが、注目されるほどではなかった。 パイソンがデータ処理に向いているというのは最近流布されるステマの一種だろう。 インタプリタだからパイソンはデータセットが肥大化すると遅くなるよ。 シティー銀行がデータ分析や人工知能しようが、世界は常に変わるからエキスパート システムのようなアプリケーションは成功しなかったし、株価予測は原理的にランダムであり 予測不可能なのでAIなどやるだけ無駄。
データ量肥大化でpython処理が重くなるというならEXCELの場合重くなるどころか開くことすらできなくなるけどね むしろEXCELとの比較だけで言えばpython使うなら元データを分割して読み込みなど工夫すれば原理的には元データ量に関する限界はなく処理時間もデータ量に比例するだけ
Excel推しの人ってみんな言ってることがどこかズレてる印象
というか、EXCELしか使えないからそれしか選択肢ないんだろう
まず、エキスパートシステムは部分的には成功しているぞ 成果が世の目に触れにくいだけだ そして、パイソンの株式予測は、データが増えれば増えるほど成功する あんなの最適化数学の延長で十分
>>512 >株式予測は、データが増えれば増えるほど成功する
株価が上昇するか、それともアンダーウェートか、それだけでも判定できるのなら大いに役に立ちます!
勝率はどれくらいですか?
株価予測は簡単じゃねえわ 当たり前の話なんだが過去は幾らでも説明できるんだけど 未来は「まだおきていない」ので分からんのだ
株価は、あらゆる情報を用いたとしても、日経平均などの平均値を超えられないという、予想が信じられてるんだろ。 日経平均を上回る圧倒的パフォーマンスをだしたとしても、一時的であってたとえば100年、1000年とか長期で測れば平均値に落ち着くといった。
株価予測が可能かどうかに関する理論・仮説はこれだ。 効率的市場仮説 - Wikipedia 金融経済学における効率的市場仮説とは、市場は常に完全に情報的に効率的であるとする仮説。 効率的市場仮説に従えば、株式取引は株式を常に公正な価格で取り引きしていて、投資家が株式を安く買うことも高く売ることもできないということになる。 すると、銘柄の選定や市場のタイミングから市場の平均以上の実績を得るのは不可能である。 チリジ・マルワラは、市場に人工知能を搭載したコンピューターのトレーダーが増えるほど市場は効率的になっていくため、 人工知能が効率的経済仮説の理論の適用可能性に影響を与えるのではないかと推論した。 ウォーレン・バフェットは効率的経済仮説に反論していて、特に注目に値する1984年のプレゼン「The Supervisers of Graham-and-Doddsville」において、 世界最高レベルの運用投資会社で働く株式投資家の圧倒的多数は、投資家の成功は運で決まるという効率的経済仮説の主張に反論していると述べた。 マルキールは、プロのポートフォリオマネージャーの3分の2が(1996年までの)30年間にわたってS&P 500指数を越える実績を出せていない (しかも、ある年に実績が高い人とその次の年に実績が高い人の間の相関は殆どない)ことを示している。
自分の考えは、株価予測は不可能という効率的市場仮説はほぼ正しいとおもっていて。 ビル・ゲイツとか、孫正義など個人・組織とかの勝手な思い、欲求で大金が動いたとき、 市場の効率性が崩れ、その瞬間だけはチャンスありという理解。 個人の思いは普通は予測できない。本人自身なら分かってるが・・・ しかしそうすると金持ちは大金動かせて、その正確な予測も自身はできてるので常に稼げることになるがどうか。
すまんスレチだが助けてくれ JavaやろうとJDKをダウンロードしたんだが インストールパッケージを開くことが出来ませんでした。 パッケージがアクセスできることを確認してください。 またはアプリケーションベンダーに問い合わせ、このパッケージが 有効なwindowsインストラーパッケージであることを確認してくださいと 書いてある。 どうすればJDKを起動できるんや?
>>519 オラクルのサポート契約結べばすぐ解決するよ!
>>501 FRBのモデルはJuliaで作られているのにな。日銀はmaltab。pythonすらでない。
>>516 考えてみたところ、日経平均やNYダウや為替レートなどいろいろな要素が多く入ってる程、予測できない一方で。
これに反対してるウォーレン・バフェットの理屈も理解できるな。
特に社長個人に注目して、信念とか哲学とか聞いてみるとか、会社見学して社員教育や社員の熱意、やる気を確認するなどすれば、
いずれ(平均以上に)成長できる会社を発見するのはできそうだからな。
そうなると株価予測というより成功者を見つける事になってくるが、これは同一でいいのか。
これが、全てな気がする。 >>株価に影響を与える全てのパラメータがあればできる 株の予測に限らず、必要なデータの種類や指標が解らないと、AIは作れない。 対象ジャンルにAIエンジニアが、逐次精通していくのは無理ゲー。
アメリカのインフレとその後の崩壊に既に仕込んであるのだろうな大手は
データの性質をよく知ってるほど強い どんな前処理したらいいかわからんし
株価に影響を与える全てのパラメータがあればって それあなたインサイダーですわ
確かに、原理的にあらゆる情報があれば予測できるとしても、現実的にはオープンにされたデータのみから予測できなければ合法に使えないな
株価予想、デイトレード的なものに機械学習を導入するだけなら 本当か嘘かまでは分からないけどアメリカの方で既に浸透しているらしいな ネットニュースでちょくちょくそういう話が流れてくる まだ無理なのは長期の予想の方だろう
「こういうデータがこう動いたら株価はこうなる」みたいに明示できるなら機械学習なんて不要だろ そうじゃなくて、全部AIに任せて「理由は分からんけど色んなデータからこれが買いだ」みたいな 説明するとアホみたいな活用が本来の機械学習の強みだろ 「理解」は放棄して「活用」だけするのが正しい姿だ 「株価の上下」という出力を変えて、「株価の変動にどういった要素が組み合わさったか」という部分を 分析するのは可能かもしれんが、それは経済学に寄与することはあっても株取引には不要な要素
>>519 だがwindows10でJDKをダウンロード、ダウンロード後保存されたJDKを
開こうとしても上記のような文が出てきて開けない
ちなみにウィルソフトは一旦OFFにしたり、オフラインでのダウンロードもしたし
Edge以外でfirefoxを使ったりしてもダメだった
パターン認識と機械学習(PRML)の輪読資料を公開
2018年06月18日 soneoka education, news, readings
C.M.ビショップ他著「パターン認識と機械学習」の輪読資料の一覧を当サイトで公開しました。
詳細はこちらから
http://deeplearning.jp/deep-learning-day18-2/ 実データで学ぶ人工知能講座(AIデータフロンティアコース)
http://learn-ai.org/about 2018-06-18
平成30年度後期の募集につきましては講座について(応募方法)に掲載しました。
募集期間は7/1(日)〜31(火)となっています。
>>536 SUGEEEEEEEEEEEEEEEEEE!!!
2chなんてくだらないものを見ていて、本当によかった
>>542 自分は数学専攻だけど雑で読みにくい
文系や工学系の人が雰囲気を味わうのに手頃なんだろ
>>547 たぶん話の文脈を読めてない
工学レベルの数学で十分だろという意味だろ
任意精度で最小二乗フィットをやろうとしてるのですけど、Mathematica以外の選択肢は 無いのでしょうか?
>>551 leave-one-out 交差検証での(最小二乗フィットの)限界(何次元迄だいじょうぶか)を
調べたくて…。
でも、(元データの精度はどうなのって点は置いといて)最小二乗フィットの結果に疑義
が起きない様に、106ビット相当の精度の最小二乗フィットでleave-one-out 交差検証すると、
Wolfram Programming LabのFree planだと8次が限界ですた。
1個外したデータでFit[]して、外したやつで誤差を計算して2乗して和を取ってるのですけど、
何かズルする手段があったりするのでしょうか?
「ここ迄やった」変数を用意して、中間結果を書き込んでやれば、 途中からでも計算を再開出来るのか…。←せこい
機械学習に興味ある新参者ですがマスター教えてください。パーセプトロンの説明だと入力値と重みの計算値を1か0で出すと思うのですが、多層ニューラルネットワークの場合は計算値を活性化関数で近似してその値を次の層の入力値にする認識でokですか?
何に最少事情でフィットさせるのか分からないことには何とも。
>>555 偽術者を自任してますw
>>559 >>560
500点位の(x,y)のデータ(単調増加)
>>561 Mathematicaで
xl = x^Range[0, 2] /* = {1, x, x^2} */
Fit[data, xl, x]
みたいな感じ(たぶん厳密解法)。
http://reference.wolfram.com/language/ref/Fit.html >>562 2次多項式にフィッティングさせてるのね。
行列計算で一発で厳密解出るよ。
numpy.polyfit 使えばすぐ計算できる。
あと、leave one outが重い場合はk-fold cross validationする。
みんなは普段どの手法をメインに使ってるの? ホントはガウシアンプロセスのほうが適切なのに ディープラーニングが流行ってるから クライアントからDL使えって要求とかされない?
すまん。Cで書いていたわ なお、カルマンニューロ本なんてN88BASICで書いてあって 流石に悶絶したわ
>>565 自分がコンサル的な立場でないならそのまま客の要求する手法使えばいい
それで精度が悪くなっても適切にプログラミングされているのならその責任は客にある
逆にコンサルとしての働きも求められる立場なら何が最適なのか説明して説得できなければ駄目
展示会で見たdatarobotってツールが忘れられない
>>572 アセンブラならともかくマシンコードはオフセット計算が
面倒でな
ef 00 00
c3
>>568 DL(方法論)の指定をしてくる時点で、目的は、結果ではなく、
流行りのAI技術に投資しましたというパフォーマンスでは?
法律的な相談になると思うのですが、 今RPGツクールのような、製作者が作ったものを消費者が遊ぶツール郡を作ってます その制作の際の素材集めを支援するために、DNNによる画像生成機能を作ろうと思っています そこで質問なのですが、既存の著作物をそっくりな画像が生成された場合、 権利者から民事的に損害賠償請求や公開差し止め請求をされ、それが通ることがあると思われますか? 1)制作時にキーワードから画像を生成して、その画像データを消費者へ届けるケース これは製作者が注意を払う責任が出てくると思います 例えば「ネズミ」で「ミッキー」似の絵が出てきたら、それは使ってはいけないと思います 2)製作時にキーワードから画像を生成して、そのキーワードを消費者へ届けるケース これも、製作時に確認した画像が消費時に現れることが分かっているのであれば、ケース1と同じだと思います ですが、それが保証されないものだとしたらどうでしょうか? 例えばテスト時には何の変哲もないネズミのキャラクターだったのが、 公開直後のプレイヤーのバージョンでは「ミッキー」になり、 その一週間後のバージョンアップで「ミニー」になったらどうでしょうか? 製作時に消費時のことが分からないケースの延長として、制作と消費が完全に切り離されている場合 例えば制作者はただノベルのようなものを書いて、それを自由に適当なプレイヤーで見てくださいと公開した場合 「ネズミ」という文字で「ミッキー」を表示するプレイヤーがあった場合、プレイヤー側が訴えられるのでしょうか? そうだとした場合、もし「abcネズミ123」、『ミッキーの具体的容姿説明』、「ミッキー」 というキーワードで「ミッキー」の絵を生成した場合は、どれがセーフでどれがアウトに当たるのでしょうか?
なんか学習データの権利とか色々あったな。なんだっけ
他人の著作物に似たら、ダメ! ネズミなら、実際のネズミに似ていないと、ダメ
大小の3つの○のスタンプを投げてたまたまミッキーになっても誰も罰せられないように 仮にそのスタンプを重ねて75度の角度で初速1m/sで投げると高確率でそうなると分かっていたとしても違法性はないだろうよ
>>575 は、著作権じゃなく、商標権で、結果的でも似たらアウト。
既存の商標シンボルと類似性が高いものが生成されたら、
自動削除するAIを併用すれば良い。
知的財産権違反の自動検閲は、Google Playでも、とっくの昔からやってるし
元データが大体x∈[0,10]なので、xではなくてx-5の多項式で近似してみたら どうなんだろうと思ってやってみたら、31次式でもleave-one-out 交差検証のMSEが 発散しないよ!(゚∀。) 原点付近に寄せてから近似するのって重要なのかも(あと、機械精度での計算前の HornerForm[]化も)。
>>583 スレチと思ってるのは君だけ
ここはゆるい雑談スレ
>>1 それが嫌なら黙って他所へ行ってどうぞ
>>3 誤差逆伝播法と勾配降下法って役割いっしょなの?
初心者すぎてよくわからん
皆さん機械学習やディープラーニングはどのように勉強を進められましたか? 自職場は製造現場なのですが、この手の分野にかなり遅れていましたが今更ですが着手する流れがあり良い機会だと思い勉強を始めようと考えています pythonの基本的な知識はありますが機械学習やディープラーニングに関してはMNISTを用いた簡単なサンプルなど遊び程度で初歩的な事しかやった事がありません 今はCourseraの機械学習を受講してまずは基礎を学習しています 皆さんの勉強方法など参考に聞かせて頂けたら嬉しいです
このスレは世界の頂点に立つ研究者ばかりだから素人さんへのアドバイスは難しい
PRML not recommended. Just kidding!!!
まぁ以前に比べれば過疎ったよね。月一で見れば十分だw
もう機械学習ブームは去った。 ていうか使えて当然の環境がもう整ってるから、どうやって使うの?何ができるの?とかではしゃぐフェーズじゃないんだよな。
みんな今の給与水準落としたくないからライバルを支援したくない でもこのまま行くと日本はAI後進国でオワタ感 というジレンマの中で黙してるんだよ
>>604 別に日本のために生きているわけでも働いているわけでもないので日本オワタだろうが知ったことではない
そんなこと気にするより自分の能力高めて、仮に日本沈没しても別の場所でも生きていけるようにしておく方がよっぽど賢い
ディープラーニング学びたいのですが 数学が苦手で、数式がさっぱりわかりません。 お勧めの書籍はありますか?
ニュートラルネットワークについて
これ結局は一次関数になるのでこんな複雑に分けれないと思うんですけど?
会社でtensorflor使ってる所ってestimator使ってるの?
機械学習に向けて高校数学をやり直しています とりあえず統計検定2級を目標にしようと思いますが、間違っていますでしょうか?
統計学に数学は必要だけど機械学習に数学は必要ありません だから数学とか言っている時点でもう間違い
統計学と機械学習は、どういう関係性・違いがあるのでしょうか? PRMLを読む前の入門本は、どれがお勧めですか? いっぱい質問してすみません。
>
>>620 統計学と機械学習の線引きはちょっとわかりません.
私は,須山敦志さんのベイズ推論による機械学習入門を読んでからPRMLを読んでいます.
ただ,PRMLは,必要になったときに必要な知識をかいつまむくらいの使い方がいいと思います.
また,2章のガウス分布の部分をしっかり読めば,ガウス分布の結合分布や条件付き分布などの計算になれることができると思います.
そもそも機械学習なんて名前の学習分野がない。 この分野の専門家が勝手に数学の技法持ち寄って纏めて使用してるだけ。 各々の技法を元ネタを辿れば統計学とかに限定されない
>>自説?? いやいや普遍的に捉えてもいいぐらいの話だと思うけど
後進国をみんなで認めて 活発に有意義な議論しようぜ
機械学習なんて統計数理の一つの応用というか枝葉に過ぎないからな
機械学習すっぞ!!と意気込んで構築手順調べたら、ゲーミングPCクラスのスペックが必要ってことに気付かされて泣きそう。 ワイのmacbookじゃどうしようもない。 俺みたいな人おる?
tensorflowのサンプルを二時間動かして落ちる???メモリ不足でござった{END}
ワイの貧弱PCじゃNIC学習で3日掛かる GANなんてやろうとしたら何日掛かるやら
政府は、「AI人材の育成」をとか言って、予算を割いているけど、ばら撒き先は、学校。
奴らが育つのを待っていれば、日本は手遅れになるから、
>>637 のような奴を救済してやれば良いのに
そもそも機械学習の仕組み自体が人間の脳を理論的に再現することを放棄してマシンパワーで無理矢理解決してやれ、というものなので それなりの資金使える組織に属さず個人で最新トレンドに追従するのは無理がある
>>638 高校生までに大学院修士課程までの数学を終わらせろ。
>>646 いくら上がる下がる50%で当てると儲かるんじゃない。
50%で正解+イクラかの情報があれば俺でも儲けられる。
>>646 に書いてある日経平均騰落予想AI「F-Trader」っていうもののことなら53.8%と書いてるぞ
50%オーバーってことは放置するだけで自動的に儲かるってことだからな
ある程度のオーバーフィッティングは免れ得ないだろうから 差し引けば完全にランダム
ディープラーニングに必要な線形代数って行列計算のみ?
>>650 騰落幅が当たらないと99%騰落が当たっても儲からないことはある。逆も真だが。
当んなくて儲からないから 当たるという宣伝で手法を売って儲けている 損だけ
まあ本当に的中するなら他人が同じことしたら自分の取り分減るだけだしね
AI開発者で一番の高給取りはヘッジファンドで株の売買や投資をやっているわけだから、 予測は可能なんだろう。 毎日、数十億動かしているから、0.1%でも予測精度が上昇すれば、十分儲かるし
AIファンドが他のファンドに対して有意に差をつけてるかっていうとそうでもないでしょ
と書いて、調べてみたら実はAIヘッジファンドの平均リターンがヘッジファンド全体の平均回ってた
ああなるほど サポートページから各章のソースは既に落とせるのか
attentionの項目は読んでみたいけどそれだけのためならいらないなぁ
データを学習させますって当たり前のように書いてあって、いっぱい読み込んだりしてるんだなーくらいのイメージして資料読んでたんだけどそもそも学習ってなにやってるの? 例えば訓練データに動物の写真と犬とか猫ってラベルがあって、犬の画像には犬のラベルですよって学習してるってイメージであってるかな? テストデータに対するスコアがあまりに高いと過学習ってのは何となく分かるんだけど、犬の画像には犬ってラベル、猫の画像には猫ってラベル、みたいに学習してるのに訓練データに対するスコアが100にならないケースがあるのはどうして?
画像と答えの組み合わせを丸暗記してるわけじゃないから
2次元の2クラス分類のデータで可視化すると良くわかるが、境界がハッキリしてなくて混じってる場合が多い。 機械学習ってのは、そういう、人間が見て、こんなん分類できるわけないやろ……ってデータを学習してる場合がほとんど。 訓練データで100%っていうのは、そういう混じった領域にも無理矢理ギザギザの線引いて対処してる状態なので、 実際のデータに対する性能は低いものになる。
c++でおすすめの参考書ありますか? c++で学ぶディープラーニングを考えてます
>>675 Deep Belief Nets in C++ and CUDA C: Volume 1: Restricted Boltzmann Machines and Supervised Feedforward Networks
by Timothy Masters
Link:
http://a.co/4gIcuGN 機械学習を標榜しておいてpythonではなく javaやC#、C++を募集してる求人多すぎぃ それはつまり既存の有用なライブラリを全部C系やjavaで実装しなおせってこと? それとも 「pythonなんぞ高級言語が出来るやつなら余裕やろw どうせ処理速度上げるラッパーやGUIは高級言語で作るんやしw」 みたいなノリなの?
>>682 pythonよりそっちの方が人口多いからとにかくプログラマー集めて教育してpython使えるようにするつもりなんじゃないか?
求人広告の文言なんて人事部やら広告屋やらが間に入ってることくらい分からないのかなぁw
環境で言語決まってるからどうにかしてくれってことでは
>>684 ぺちぱーやぶいばが来てもうざいから
魔除けで書いてあるんだろ
VB.Net使えるのにC#使えません、なんて人はあまりまともなプログラマーではない可能性高いから相手にしたくないけどな
VB.Net使えるのにC#使えません なんて言うまともじゃない人が多くて困る。
VB.Net使えてもC#使えない人なら応募要項に反してるので首に出来るから都合がいい
応用が必要なAIの開発を請け負っている所って、 専門ベンチャーや大学以外に有るのかな? 富士通やNECは、キラーパスできる下請けがいないから、 前例豊富な案件しか回せ無さそうだ
キラーパスできる下請け持ってる会社って何処?俺も下請けに超絶スルーしたい。ちょwQBKみたいな。 NTTデータとか?NECや富士通も似たようなもんじゃないの?
Pythonでプロトタイピングして、モデルができたらプロダクションはJavaとかC#で組み込むんだよ
Deep Learningの輪読資料を公開
2018年07月12日 soneoka education, news
Ian Goodfellow 他著「Deep Learning」の輪読資料の一覧を当サイトで公開しました。
詳細はこちらから
http://deeplearning.jp/seminar-2/#1515565927378-9a11fdc4-798a 【裏切られた、安保″】 イラン核施設 ←(2010,11)―<サイバー攻撃>―(2011,03)→ 福島原発 http://2chb.net/r/liveplus/1531447465/l50 アメリカと断交すべき fast.aiのライブラリは既存のライブラリに比べてどう優れているのでしょうか? 速度?精度?メモリ節約?
ユニバーサルトランスフォーマーで自然言語は一区切り付いたな
全ベクトル再帰+タイムステップ&ポジション付与
https://arxiv.org/abs/1807.03819 深層学習に仮説など必要ない。膨大なデータがあれば そのデータを検証するだけでいくらでも有益な結論を導き出せる! みたいこと言う輩が最近多いなあ 無理なんだけど
深層学習は自分はしたことないけど、勾配消失してるのか結構学習失敗するみたいね。
そもそも入力ベクトルの各成分が独立性・白色性強いと良い結果はほとんど出ないよ
AIを株の売買に使って儲けている奴は確かに居るけど、 正しい判断を下す為の道具として使っているだけ。 AIにどれだけ精通しようと、素人が出る幕は無いので、大人しく、投資ファンドに雇って貰おう。
学習機に突っ込む前に恣意的にある程度データ整形する必要があるんだが、 バカはとにかく突っ込めば結果出るんでしょ?とか思ってる。
株は個人で買える金額に限度があるし 仮に限度無く買えるならそもそも相場を支配出来るやろ
限度なく買えるぐらい資金あるならわざわざ運用などしない
私立文系卒エンジニアだけど、機械学習とかデータサイエンス興味ある。 数学力どれくらい必要???
ちなみに自分のスペック 32歳 学歴 ーーー偏差値60程度の私立文系学部卒 実務経験 ーーー汎用機(COBOL開発、保守)エンジニア歴5年半 ーーーエンジニアと無関係の総合職1年 資格 ーーー応用情報技術者 ーーーデータベーススペシャリスト ーーーネットワークスペシャリスト スレ見てる感じだと、クラウドとか重要らしいから、ネットワークスペシャリストの勉強通して得た知識役に立つのかな? 面白いから実務にあんま関係ないけど勉強してましたが 機械学習なら活きる?? 数学は高校二年で捨ててしまった。 センター数1Aは平均点程度で、数2Bは20点くらいしか取れなかった覚えがある。
>数学力どれくらい必要??? 質問の意味がよくわからない
そのくらい自分で調べて準備できないなら無理だから諦めろ
研究者になって論文発表するのでなければ、
>>719 のスペックが理解できる範囲で十分
実際アドホック分析ならExcelとSQLくらいで十分
仕事以外で機械学習勉強された方はいますか? 最近勉強を始めてまずはアルゴリズムの概要や基本的な部分の理解を進めてるのですが、演習みたいな物もやってみたいなと感じているのですが、独学で勉強された方はどのように身につけましたか?
>>728 英語が読めればfast.aiやkaggleのtitanicチャレンジ
読めなければQiitaなどで初心者向けにコードを載せている人や
kaggleの解法を解説している人がたくさんいる
手元にExcelぐらいしかなければブラウザでh2oを動かすとか
>>728 です
レスくださった方ありがとうございます
courseraは先月始めてみました
スケジュール的には大丈夫かと思ってたら10分の動画ですら理解するまで1時間以上かかって全然進まず、テストも1週目から全然分からずで自分の理解力の無さに絶望しました
kaggleは聞いたことなかったのでQiitaを見ながら進めてみます
コーセラやってたけど俺も予定時間よりとんでもなくかかったし何より1週目のテストの問題の意味が分からなくてそこでやめた 動画見たときは分かったつもりだったのにテストは答えられない、質問の意味すら理解出来ないで自分に絶望したわ いやー無能はつらいっす
♪ コーセーラ、コーセーラ ♪もーひーとーつーコーセーラ
大学行って、嬉しかったが、いつも出てくる講義はコーセラ 今日もコーセラ、明日もコーセラ、是ぢゃ年から年中コーセラ
大学行ってコーセラってどういうこと? 授業料の無駄
教授が書いた教科書買わされた挙げ句、授業がつまらなくて結局サボるより良心的
線形代数ってさ、ベクトルの復習みたいなのから始まって、加法、定数倍とかなんだ簡単じゃんとか 思って進んで行くと、なんか急にわからなくなる断絶感があるんだけどいい本ない?
高校数学向けに洗練された範囲とそうでない範囲の違い
>>749 高校数学で固有値固有ベクトルってやったっけ?
Courseraの機械学習の有名なやつ、Pythonでやってくれたらいいのに
>>747 線型代数 長谷川浩司
線型代数学 佐武一郎
線形代数は大学で講義受けてた頃はひたすら新しい定理を出して証明するような感じだったから意味不明だったけど 要は大量の連立方程式を解くための方法を工夫しているだけだと考えればそれほど難しくはないと思えるようになった
最近PAP-1がPAPPに見えるのが気になって仕方がない
>>254 本人に渡るのは3分の1以下が相場じゃないか?
80万で発注してるとしたら、本人に渡るのは27万ぐらいで、税金やらなんやらで手取り20万強といったところ。
だから、使ってるほうは高い金払ってんのになぁ、となり、使われるほうは、大して貰ってないのにあれこれ言われんなぁ、となる。
機械学習に数学は必要だけど、テストじゃないんだから、数式が解けることがゴールじゃない。 数学や物理で博士号持ってる奴は理解度が全く違うと思う。
数学はディープラーニングだからな。 数学は計算して答えが出るようでは駄目で、問題が出ると 答えが勝手に出てくる脳作りが一番大事。
カーブフィッティングか判断するには統計的知識は必要だよな
kerasを使い、かつ新たな機械学習モデルを作らないならば 数学は必要なし それ以外は必要 フィッティングも可視化すれば形式的に判断できるからね Tensorflowでもkerasの使用を推薦してるから 需要過多の現状、ライブラリ知識だけでもいいんじゃね どうせそのうち新たなモデル自体をMLで作るようになるしな
python+vimキーバインドでデータ解析するための環境を模索してるけど結局ブラウザで実行するjupyter notebookが一番快適だな pycharmがいいという記事を色々見つけたから試したけどjupyter notebookとの連携ではvim拡張がmarkdownセルで効かなかったりセル間移動に使えなかったりでブラウザ版には敵わない
超初心者だけどkaggleやりたい どうやって勉強すればいいんだ
kaggleやりたいにme tooだ 微積→線形代数→大学一年程度の統計学→ 最適化数学の基礎→はじパタ本→自然言語処理の基礎→ pythonの入門書→ゼロから作るdeep learning(now!) もうそろそろ、kaggleをはじめられますかねえ アカウント作ってみたけど、とっかかりが分からん 教えてエロい人
kaggleはtitanicが入り口 公開されているkernelで良さげなものをforkするとか ダウンロードしてローカルまたはクラウド上で パラメータを変えたり 欠損値の補完の仕方を変えたりすることから 始めてみればいいと思う titanicの解説は日本語でも掃いて捨てるほどあるし 敷居が高いとは全く思わない
>>774 ありがとう。なるようにしかならないし、やるだけやってみるわ
宣伝乙と言われるかもしれないけど noteで初心者向けtitanicレクチャーみたいなやつ売ってる人いたよ それだけ本買う金あるなら買ってみたら? あとド初心者ならSIGNATEの方がおすすめ
大学の数学の内容ほとんど忘れてるレベルなんですが、kaggleとかやってみたいです スレざっと見たんですが、SIGNATEとかやった方がいいんでしょうか? 一応東大の松尾ラボのGoogle Driveに保存してある、講座があるんですけど、それから始めるべきか? 数学をやり直すべきか? どっちがいいでしょうか?
>>778 カーネル関数も理解できてない癖に死ねよ
>>779 お前から先に死ねよ、カーネル関数(笑)
カーネル関数って、非線形写像の時に出てくるアレか 線形代数をちょっとかじってればその場で理解できることだし 単語知らないぐらいならなんとかなりそうなもんだけど違うの
どっちがいいかとか聞いてる奴は自分で学習効率も測定できないアホ
ベクトル解析は必要かな 勾配とかナブラとか、そういう事を漠然とわかっていれば、とりあえず論文は読めるよね いらない気がするけど自分が大したもんじゃないから実際のところは分からん
どうせ証明なんて自分でしないんだから 計算術だけ判ってればOK
機械学習に数学はいらない
ベクトル解析もいらない。そもそも
>>786 からしてどうみてもベクトル解析理解してないw
機械学習の線形代数なんか単なる計算テクニックに過ぎないわけだが学者さんは難しく考えたがるよね テクニックじゃなく本質的に重要なのは統計学
>>786 俺もベクトル解析わかってないけど、まあ論文読めるよと言いたかっただけだ
だから必要ないんじゃないかなーと思ってるけど
でも十年後は分からないよね。なんとなく複素解析とか、フーリエ解析とかやっておいた方が良さそうな予感。やったことないけど。でも音声認識とかまだ実務では中々つかえないけど将来的には食える技術な気がする。直観
>>789 例えば問題によっては自分でペナルティ項考えたりしないといけないと思うけど、そういう時にどう計算すればちゃんと解が求まるかとか考えるには線形代数の知識や数値計算のテクニックとかは要るよね
ゼロからともう一冊読んだけどディープラーニングは数学はいらないよ。 ディープラーニングは感性で考えられてるからね。
不良などの要因分析によく使われるアルゴリズムを勉強したいのですが、決定木が適しているのかなと感じたのですが、他にはどのようなアルゴリズムがありますか?
tensorflow 使うだけなら多変数関数の合成関数の微分だけ知ってりゃ使える。 ただ結果の良し悪しを考えるならガウス分布、大数の原理くらいは知っとかなきゃまずい。
ベンダー企業で研究開発してる奴らなら数学も出来ないと辛いことはあるだろう 逆に、極端な話、機械学習エンジニアとは名ばかりのただの組み込みエンジニアなら 数学どころか理論まわりも分かってなくていいんじゃないか 結局はピンキリ
ゼロから読んでtensorflow始めたけどtensorflowの有り難みがよくわからん sessonとかなんやねん
あとゼロから読んでも理解力低くてよくわからん なんやねん誤差逆伝播
データサイエンス講義に下記のような一文があったけど、 どういう風に数学を勉強したら、これが解るの? 「文脈が持っている特徴を問題として捉え、数学の言葉を使って考え、 自分の知っているアルゴリズムが解こうとしている問題に どのように対応するかを考えましょう」
>>805 それぞれのレイア―を関数に見立てて考えよう
レイア―1 …… y=f1(x)
レイア―2 …… z=f2(y)
レイア―3 …… o=f3(z)
f1にまずxが入力されて、f3から出力値oがでてくる
さて、いま出力値oを最大値に近づけたい
レイアー3だけ考えよう
f3()に入るzという引数を、いったん定数と置こう
このzに、限りなく0に近い Δz という値を足すと、
f3(z+Δz) = f3(z) + g3×Δzと、出力値oがg3×Δzだけ増える
レイアー2も
yを定数と置いて、Δyをyに足すと、f2(y+Δy)がg2×Δyだけ増える
レイアー3も xにΔxを足すと、f1(x+Δx)がg1×Δxだけ増える ここで、g1×Δx=Δy , g2×Δy=Δz だから、g1・g2・g3・Δx = Δo(出力値oの増加分) このg1・g2・g3がgrad(勾配)の正体だ 誤差逆伝搬では、g3、g2、g1と反対側から各レイヤーの傾きを求めて、 最後に掛け算することで、この勾配の値を算出している えっ、g3、g2、g1はどうやって求めてるんだって? 偏微分とか(ごにょごにょごにょ……まあ、気にするな あと最後に言っておく 分かりやすさを優先して説明をはしょったり、捻じ曲げたりしてるから ネットの落書きなんてあんまり信用するな。がんば
今朝のテレビ朝日系羽鳥慎一モーニングショーで 蚊の研究をしてる元高校生を取り上げて ノーベル賞とか公式発見とか取り上げてたけど ただのデータマイニングと最小自乗回帰式出しただけで 夏休みの自由研究レベルだったんだが ここの人もし見てたら色々言いたいことあると思う
>>807 文脈が持っている特徴というのは学習対象に関する知識に基づくものであって、例えば機械の故障予知ならその機械の性質などとなる
つまり対象物に関する知識を持った上で対象物に由来する適切なパラメータを数学的理論に突っ込んでやる必要があるわけで、
数学が不要なのではなくむしろ数学は大前提の知識でありそれに加えて対象物特有の知識も必要だということ
>>810 その話は知らないけど、例え簡単な回帰式でも人類の発展に貢献するものならノーベル賞もありうるんじゃないの?
例えば、ガンの発症率と睡眠時間が相関があるとか。
まあイグノーベル賞っぽいけどw
読んでみたら、割と凄い論文だった きちんと理論武装して学術論文の体裁にすれば評価されるだろうさ 切り口が鋭い奴はなにやっても凄い
>>816 斜め読みして見たけど、テレビでやってる科学番組みたいな感じなのが残念だな。ああいう番組を見て育つとこういうのが研究なのだと勘違いしてしてしまうのかもしれない。
まさか、データ分析だけじゃないだろ? 蚊を何百匹も飼育して、自分の血を吸わせて、実験しているのだろ? 大変だろ
ノーベル賞は選抜された世界中の研究者からの推薦数で決まるのでそこに強いコネがあるか超有名人かでなければどれだけ内容が優れていてもまず取れない
研究は手法よりもテーマの選び方のセンスってのはあるんだろうな。 手法なんてXGBoostでテキトーに出力してもうまくいくときはうまくいく。
テーマの選び方に余地がなく、上から降って来てなんとかしてくれって言われることが多いです。
>>820 たまたま飼育していた蚊の傾向が判っただけで
同じ遺伝子の蚊だと意味がない気もする
日本中世界中の蚊で試すとか
違う種類の蚊でも試したのかな
>>826 こういうのは検証手法を考案し有意な結果を得たこと自体に意義があるんだよ
あとはアース製薬の仕事
なるほど アースや金鳥やフマキラーが追従して論文書けばノーベル賞か
>>821 それだと田中耕一さんの受賞がわからない。
中村修二さんは目立ってたけど。
>>827 論文さらっと読んだ感じだと有意と言えるかどうか分からんけどなあ。
まあ追試して検証する必要あるね。
島津の田中さんみたいな発見や発明型のノーベル賞はすごいと思うけど、重力波とかニュートリノのカミオカンデとかわかってることを確認する型のノーベル賞は若干落ちる気がする 金集めて人使う経営者的能力って感じで いやそういう能力の人も大切なのはわかるんだけどさ
>>831 >重力波とかニュートリノのカミオカンデとかわかってることを確認する型のノーベル賞
いや、実験をはじめた時点では、理論が嘘である可能性を織り込んでいるんだよ
理論が成立しないかもしれない、と思いながら、それでも、その理論を理解し咀嚼し(普通は、嘘かもしれない理論を学ぶ気はしない)、その理論に載って実験器具を設計する
並大抵の覚悟ではできないと思うよ…
あとカミオカンデは2回受賞してるけど 一回目のは確認型だけど 二回目のは失敗からの新発見だったかもしれない
安心しろ。偉そうに書いてるだけで書いてる人たちが何かしたわけじゃない
企業のデータ分析なんかコンサル力がないと完全に社内ニートやで
社内ニートで金もらえるならむしろラッキーじゃないか
>>839 関西P社?
このスレにそんな実力者がいるとは
インターンなんてse代わりに使うには教育コストパフォーマンス悪すぎじゃないか しかも少ししたら居なくなるわけだし
そりゃあいい気持ちにしておいて seを確保するためだろ
DSの底辺の仕事は、汚い前処理をひたすらやらされるポジだよ 高卒でやってる人もおる。そこからでも、がんばれば這い上がれるんだけどね アルバイトで、未経験どころか知識がなくても受け入れてくれる求人もあるにはあるから 興味があれば突撃してみるといい
P社って、データサイエンティスト集めてるけど、AIに力を入れるわけでも無し、 何を企んでいるのだろうか
データサイエンティストは、ガチに売上に貢献するネタ見つけたら門外不出扱いになるから、 当たり前だが外部に公開なんて出来ないよ。 上っ面撫でてるような話ばかり取り沙汰されてAIブームとか言われてるけど。
H'とW'の+1はどこから来たのでしょうか?
実際に数を入れてみたら近い値が出てきました
ちなみにDlの式がないのですが何を表してるのでしょうか?
15mの道に木を5m間隔で植えたら15/5+1本植えられる
>>852 まあ実際のデータサイエンティストの仕事ってそんなもんだがな。
9割が前処理コードと実験環境構築。
理学分野じゃないのにサイエンスが入ってるという糞用語つくる時点で営業目的の表現だし PGをSEってよびかえるのと同じ
バスケット分析とかだろ 紙オムツを買う男は、一緒に缶ビールも買うとか、 焼肉のたれは、肉の売り場に置いた方が、よく売れるとか
そんな相関さえ見えればいいようなものなら専門家でなくても誰でも半自動ぐらいでできる
機械学習ならpythonとRどっちをマスターすべきかさっさと教えろ
>>868 深層学習を中心にやるならpython
機械学習全般ならお好きな方を
今から新規に始める場合、既存のライブラリなどの資産の有無の縛りがないならpythonにしない理由はない
R 面白いじゃん、プログラミングが面倒に感じる人ならいいと思うけどな … と書いてみたものの、R vs Python 論争は今更かw 好きなのやればいいいんじゃないの、不都合が発生したら両方やればいい
>>867 だが実際にやるとなるとめんどいんだよ。
Rはマニュアル見て動かせばいいだけだから勉強するってほどのことがない
株価でも、何十年も相関関係を調べている 株価は実体経済よりも、半年先行している。 さらに、サザエさんの視聴率は、株価よりも3か月先行しているw 最も早い指標が、サザエさんw 視聴率が下がると、どこかの産業が活発になってきている証拠! それが後に顕在化する
>>881 「すぐに使える! 業務で実践できる! Pythonによる AI・機械学習・深層学習アプリのつくり方」とかいう如何にも怪しい本買ったよ
>>883 ちょっとググったら github にソース置いてあるんだな、今っぽくて悪くはなさそう
まずデータをどう集めるのかが大変だよね。 天気予測とかで、日本全国1000箇所ぐらいの温度、湿度、空の写真、海の写真とかを1分に1回計測して学習させたりとかしてみたいけど、国家プロジェクトなレベルの話になりそう。
だから機械学習を個人でやってもチュートリアル以外実用性のあることはほとんどできない 結局どのような組織に所属しているかが最重要
株のファンダでスクリーニングするくらいならそこそこいけるんじゃね 間違ってもテクニカル占いには手を出すなよ
>>888 すごく分かる
参考書見ながら独学でやってるけど実戦で役に立つイメージが全くわかない
個人でやってるったって、 キチガイが勝手に関連付けを発見しているようなものだからな 風呂に入るタイミングでクラクションが鳴るから集団ストーキングされてる、みたいな
>>891 機械学習の大前提となる大量の学習データの入手の難易度が個人か企業などのそこそこ大きく組織かで天と地ほど違う
学習データを要しないプログラムであればむしろ個人の能力が大部分なので自分が優秀ならそれでいい
>>892 その通りだな
データサイエンスにおいて、因果関係の理解されていない相関という科学的に無価値なものにも価値が認められるのは、それが金になる可能性があるから
飯食ってウンコ垂れ流すだけの個人が金を生むデータを入手できるかというと、、
グーグルもtensorflowを無償公開したときに 重要なのは仕組みじゃなくて どんなデータを持っていてどう使うかのほうが重要と言っていたね
例えば、カルチュアコンビニエンスクラブ(Tポイント)が持っている データが使えたとして、何を分析し、それを、どう活かす?
どんな属性の人がいつどこで何を買いたがるかはあらゆる小売りが欲しがる情報だろ
>>896 エロ本は入り口右側より左側の方が売れる
機械学習で何ができないか分かってきた。 機械学習ブームもいよいよ終焉か。
>>900 >いよいよ終焉か
…もう終わってしまうのですか?今からやろうと思っていました
そうだ、今までのブームのなかで出た最良の参考書を教えてください
0,1のようにクラス分けされたものではなく、連続値の要因分析をしたいと(連続値が高い時に効いているであろう要因など)考えた時に検討されるアルゴリズムはどういうものになるのでしょうか? 回帰木なのかな?と考えたのですが知識も浅く決定木くらいしかイメージが付かないのでそう考えたのですが他にはどのようなアルゴリズムを検討すべきでしょうか? かなり初歩的な質問ですいません
>>902 それでどう木が関係するのかわかってないが。
2つの関係すべてで類似度を計算すれば似通ったのはわかるが。
Google が良いのは、関連広告 アイドルで検索すれば、アイドルの広告、 プログラミングで検索すれば、プログラミングの広告のように、 その人に必要な広告を表示するから、有益 肉売り場に、焼肉のたれが置いてあるようなもので、便利 例えばギャンブルとか、会議室とか、 ユーザーに関係のない広告を見せられても、邪魔なだけ 自分に関係のない広告など、見ないし
>>905 前まではそういうターゲッティング広告が万能という風潮もあったけど、全くの新規顧客を開拓するのには向いてなくて、今はまたマスの誘導のための広告をどうするかが流行ってきてるってもっぱらの噂だよな
検索実績ないユーザーが新規に何を検索したかを調べればいいだけだな
そもそも志向性の無い人に、CMを見せて、嗜好を促すという毛色の違うアプローチなのである
欲しい商品をちょっと調べたりすると同じジャンルの広告ばかり出るようになるよね もう買ったからその広告出しても意味ないのに、と思うことが多い
単体の決定木の可視化は作成出来たのですが、ランダムフォレストは可視化可能なのでしょうか? ランダムフォレストの資料は沢山あるのですが可視化について書かれているものが見当たらないので質問させて頂きました 何百という木を作るので可視化しても意味が捉えにくいから可視化させないのかそもそも出来ないのかどちらなのでしょうか?
文字通り森だから無理 富士の樹海の写真でも貼っとけ
>>913 >>914 >>915 ありがとうございます
単体の決定木は見れたのでランダムフォレストのような大量の木はどんな風に見えるのか気になったのでやってみたかったのです
export_graphvizを使おうとするとエラーが出て、その内容で検索してみると不可能だという記事も見つかりました
>>916 多分pythonのsklearn使ってるんだと思うけどできるよ。
ただ、見てどうするんだろうとは思う。
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_iris
from sklearn.tree import export_graphviz
X, y = load_iris(return_X_y=True)
cls = RandomForestClassifier()
cls.fit(X, y)
for i, t in enumerate(cls.estimators_):
export_graphviz(t, "tree_%02d.dot" % i)
>>900 結局、AIブームで儲かったのは
エンジニアにGPUを売ったエヌビディアだけというオチだったな
エヌビディアのGPU買ってAI開発して儲けた話は一つも聞いたことがない
普通に各社webサービス内部などでAI開発の成果が金稼いでるだろ
AIで超儲けた! って話は出ないね ゴールドマンサックスがトレードに使ってるという公式発表は出たが、どこまで事実か
NvidiaのGPU売上はAIブームに乗って2015年以降3倍に増加 株価は10倍化
AIとトレードを結び付けないほうが良い。 ここで前も書いた気がするが、株価はAIでも、どんな手段でも予測できない可能性がある。 効率的市場仮説というやつだが。
正しいなら、いかなる手段でも予測できない事になるからAIですら無意味。
効率的市場仮説(こうりつてきしじょうかせつ)
現時点での株式市場には利用可能なすべての新たな情報が直ちに織り込まれており、超過リターンを得ることはできず、株価の予測は不可能であるという学説である。
ランダム・ウォークを説明する考え方になるが、科学的に証明はされてはおらず、確からしいという仮説の域を出ていない。
効率的市場仮説の下、株価指数連動型インデックスファンドとETF(上場投資信託)が誕生し、目覚ましく普及してきた。
https://www.nomura.co.jp/terms/japan/ko/A02426.html システムが一切、予測できてないのに、儲かるんだったら運でしか無い。
ゴールドラッシュから、同じ事の繰り返しだな 金を掘る人よりも、金を掘る人に道具を売る人が金持ちになる
AIを使った投資で儲かるならグーグルがとっくに手を付けて成功しているはず 最先端の技術が真っ先に注ぎ込まれるのは軍事と金融
AIを使っているヘッジファンドが高リターンを出しているのは事実だし、 開発メンバーは、GoogleやIBMの最前線からヘッドハントされた精鋭揃い。 データに隠れている情報を引っ張り出し、 AIとして活用できることが出来る人間は、本当に、ごく僅かしか存在しないと思われる。 日本国内のポイントカード各社が、 6,000万〜8,000万件の顧客の購買データを持っていながら、 広告ぐらいしか活かせていないのに象徴されるように
kaggleの電話番号認証のSMSが来ないんだけど なんでかな? +818012345678 +81-80-1234-5678 +8180-1234-5678 みたいの全部ダメ
GoogleやIBMの最前線からヘッドハントされた精鋭揃い www
機械学習を使いこなすNetflix社員の年収は5300万円
>>935 どこで誰がいつ何を買ったかまではわかるんじゃないの?
日本にいる限り、機械学習の論文をスクラッチで実装できるレベルになっても 大していい収入は得られないみたいだなあ まあ。海の向こうでも5000万とかもらっているのは、 機械学習で新しいビジネスを開拓できる一部の人間だけみたいだけど
プリファード何とかの人たちは結構もらってると思うけど
論文読んで実装するだけで高級もらえる仕事なんて世界中どこにもねえだろ
>>939 いわゆるAI産業って基本的に詐欺だから、コンサルできないと金にはならないだろうな
実業で実質的な大きな利益を出すのはほぼ不可能でしょ
AIが詐欺ってそもそもアホな考えだぞ。 グーグルのアルファ碁でAIの実力が示されてて有効だ。 AIが、人間がプログラムするよりも、人間のプロよりも強くなった。
>>943 うん。AIすごいね。で、どうやって金を生み出すの?
そう聞かれて相手に夢を見せられるような回答ができる?
それがコンサル力だよ
実際に利益が出るかどうかは問題じゃないし、問題にしてはいけない
そこに自ら手を突っ込んでしまうと一気に泥臭くなって単価が下がる
たいして売上実績もないのに将来性だけで上場したHEROSの社長が一番AIを上手く活用してるよね
>>945 君はもちろん払わないだろうけど、基本的にデータ分析やAI系の商売相手ってITについて素人同然のユーザー企業だからね
流行りだからなんかやってみることになったけどよくわかんないんだよね〜予算あるけど何やったらいいのかな〜くらいの意識よ
で金取ってPoCして「やれることはやった。期待したほどの効果が出なかったのは、お前らが選定したテーマとデータが悪いから。」で客に押し付けて逃げる
それがAIビジネス
データ突っ込んだら必要な前処理と 最適な学習手法と 最適な評価指標を自動で教えてくれるツールが欲しいわ。
1銘柄の株価上下を予測するのが精度はでなくても、 1000銘柄くらい一気に同時学習させて 好調な上位10銘柄を出力させてそれらに 分散投資すればいいのではないだろうか。 問題は売却タイミングだな。 1度買ってしまったものはその銘柄の上下を 予測しなけりゃならんからな。 となると1ヶ月後に株価の増分が最大になる銘柄の 上位10を予測させて1ヶ月後に必ず売却すれば いいのか。 テスト精度がそれなりに良くて、 勿論時系列データのSARIMAXを考慮すれば上手く 行きそうな気もするが…
>「やれることはやった。期待したほどの効果が出なかったのは、お前らが選定したテーマとデータが悪いから。」で客に押し付けて逃げる それがAIビジネス 請負ならそれでいいんだろうけどね
自社事業ならそれが社内の部門同士の話に置き換わるだけだよ AIやる人はコストセンターだから厳格な利益目標を求められる立場ではない プロフィットでデータやってる人って技術的にはエクセルとBIの職人でしかないよ
>>948 DataRobotがそれできるんじゃないの?
>949 マジレスすると市場でそれやっている連中の時間軸はms単位やで
株やるならインデックスの対象銘柄をファンダメンタルで半分くらいに絞って、中期くらいで分散投資するのはどうだろう ベンチマークを少し上回るくらいは難しくなさそうだし、 チャートを学習させるよりは経済の本質的な勉強になるから結果的にダメでも得るものがあるだろう
今更ながらアルファ碁とアルファゼロの論文読んでるけど、 これで碁が強くなるのは分かるけど、将棋まで強くなったってのは眉唾だな 序盤は強くなりそうだけど、中盤と終盤は従来の方法の方が絶対に強そう
>>956 そこは俺も引っかかる。
確かモンテカルロサーチはAI将棋やってる人達が色々試したけどあんまり結果出なかったって話だと思った。
というのも将棋は囲碁と違って良い手、悪い手の差が激しいからより深いサーチが有効って
ゲームだから。
>>947 てかユーザーはユーザーで普通にまともにデータを用意できないというか、
そもそもスキーマーがぶっ壊れまくってるのを押し付けてくるユーザーも普通にいて
機械学習以前の問題。
はっきり言ってどっちもどっちで腐りまくってんだよ。
chainerって結構お手軽なんじゃね? kerasはラップされすぎてよくわからん
>>921 100%事実でしょ、特に仮想通貨がやばい
単純なsdf(FXと現物の価格乖離を防ぐシステム)のBOT+AIで
売り板や買い板出してる奴が機械か人間かを
出してる板の枚数と取引のキャンセルスピードなんかで判別できる
成行か指値かも同様に判別できて、sdfの境界を利用して取引命令の更新が遅い人間から
一気に証拠金を搾り取る事が可能になる
一度そいつから絞り取ったら、大資本のAIは基本的にそいつがロスカットされるまで相場を急変はさせない
いまFX(特に仮想通貨の)をやる奴は博打どころかほぼAIに証拠金巻き上げられるってことを理解してやるべき
例外は直後のニュース要素のみだからな
なんで日本って投資後進国って言われてるのにFXや仮想通貨は活発なんだろう
仮想通貨の利益の源泉は 株やFXに比べて異常に広いスプレッドと 取引所によって提示価格が大きく違うことが あるのを利用したサヤ取りだろう タイミングを見計らってこれらの取引を行うのは システム取引ではあるけれどAIは無関係と思われる
違うスレで答え貰えないのでちょっと話ずれてるかもしれないですがここで質問させてください ニューラルネットの質問なんですがバイアスを入力1、重みbとして扱う時に X=[x1,...,xn,1] W=[[w11,...,w1k],...[wn1,...,wnk], [b1,...,bk]] Y=XW=(1,n+1) になりますよね 隠れ層がある場合は次の層のバイアスのためにXWの最後の列が出力1になるようにしないといけないと思うのですが W=[[w11,...,w1k,0],...[wn1,...,wnk,0], [b1,...,bk,1]] こうしてもいいのでしょうか
素直に行列の足し算を使って [XW+B]の形にした方がすっきりすると思う
すいません。 肌の領域判定をsklearn使ってやろうと思ってるですけど、識別機でおすすめとかありましたら教えて下さい。
昨晩サイエンスZEROで内視鏡のガン検診で人間の医者より精度良いって言ってたな
とりあえず何も考えずxgboostにでも突っ込んどけ。
高卒低学歴だけど機械学習の勉強始めて数学とか分からないまま参考書進めてたけど出てくる結果が全然分からなくて統計の勉強も始めた めちゃめちゃ遠回りだけど先に繋がると信じたい
実戦データマイニング: AIによる株と為替の予測 単行本 – 2018/6/20
https://www.amazon.co.jp/dp/4274222373/ この本どうなのだろう?
なんかユーザーレビューの評価が極端に悪いのだが
AIに、株やFXは向いてないとおもってるが。 上で効率的市場仮説をいってたが。これが成立するならAI無効。 そもそも、システムトレードでAIを使ってるのか? 人間がやる思考、作業を自動化してるだけかもしれない。
実践以前に株やFXで、AIが有効である可能性がある理屈、理論を考えるべき。 有効でない物をいくらいじくっても何もならない。 簡単にいえば確実に勝てる手法ともいえるし、膨大な学習すればそれが可能だったらそれでもいいし。 理屈上、ありえるのか。
ファンダメンタルなら有効でしょ アドホック色が強くなるし真面目に経済の勉強しなきゃいけないから人気ないけど
株は短期情報戦になったらインサイダー最強なのでムリ 長期の安いトコ拾って塩漬け戦法しかないからAIの出る幕はない
人間のトレーダーは、絶対に、ダウ平均・日経225などの平均株価に勝てない。 人間が取引すると、平均株価を下回る 最も確実なのは、アジアなど新興国の通貨を買うこと 日本円も1ドル、360円が80円になったように、 必ず発展していくと通貨の価値が上がるから 発展途上国の通貨の価値は上がるが、先進国のは下がる。 つまり地球全体が平均化する
新興国通貨も結構なギャンブルに思えるけどね 地政学的リスクとか流動性リスクとか
>>976 わろた
ここまでひどいのも珍しいが
きっとひどいんだろ
>>976 これはすごいw
カスタマーレビュー
星1つ 100%
そのわりに古本高いね ていうか金融に使われてる機械学習技術みんなひどい
もうかりゃだまって実行するだろ。本なんか書くよりはるかに儲かるだろう。
>>987 本で儲かる手法を公開すれば同じシステムに儲けが持って行かれるしな。
投資関係のテクニックや新理論に対して「儲かるなら公開せず発案者が独占するだろ」とよく言われるが、 大資本を持たない場合は大して稼げないので公開してしまって業界内有名人になってセミナーや書籍等で稼ぐ方が効率的だったりする そもそも非公開にしたってどうせ誰かがその内似たようなのを作るから
理想は買うだけ買って読まれない本 赤旗新聞や朝日新聞や聖教新聞のように
大企業は数学上の重要な発見とかを企業秘密にしているらしいね。
バフェットみたいに超有名になれば自己実現的に儲かる気もするけど
>大資本を持たない場合は大して稼げないので公開してしまって業界内有名人になってセミナーや書籍等で稼ぐ方が効率的だったりする 糞セミナーや本を出してるのは 予算だけもってる素人に教えたいから 物を知らない人間には物が売れる
明地文男の3点チャージ投資法は、 本も出てるし、サイトでも公開してるけど、勝ち続けているだろ
read.cgi ver 07.7.25 2025/07/21 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250919161223ncaID:IA6PwqNR0のレス一覧: 環境で言語決まってるからどうにかしてくれってことでは
>>684 ぺちぱーやぶいばが来てもうざいから
魔除けで書いてあるんだろ
VB.Net使えるのにC#使えません、なんて人はあまりまともなプログラマーではない可能性高いから相手にしたくないけどな
VB.Net使えるのにC#使えません なんて言うまともじゃない人が多くて困る。
VB.Net使えてもC#使えない人なら応募要項に反してるので首に出来るから都合がいい
応用が必要なAIの開発を請け負っている所って、 専門ベンチャーや大学以外に有るのかな? 富士通やNECは、キラーパスできる下請けがいないから、 前例豊富な案件しか回せ無さそうだ
キラーパスできる下請け持ってる会社って何処?俺も下請けに超絶スルーしたい。ちょwQBKみたいな。 NTTデータとか?NECや富士通も似たようなもんじゃないの?
Pythonでプロトタイピングして、モデルができたらプロダクションはJavaとかC#で組み込むんだよ
Deep Learningの輪読資料を公開
2018年07月12日 soneoka education, news
Ian Goodfellow 他著「Deep Learning」の輪読資料の一覧を当サイトで公開しました。
詳細はこちらから
http://deeplearning.jp/seminar-2/#1515565927378-9a11fdc4-798a 【裏切られた、安保″】 イラン核施設 ←(2010,11)―<サイバー攻撃>―(2011,03)→ 福島原発 http://2chb.net/r/liveplus/1531447465/l50 アメリカと断交すべき レス:1-200 201-400 401-600 601-800 801-1000 ALL
このスレへの固定リンク: http://5chb.net/r/tech/1520586585/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【統計分析】機械学習・データマイニング19 YouTube動画>2本 ->画像>5枚 」 を見た人も見ています: ↓この板の人気?スレ↓(一覧 ) ・BITCOIN ビットマイニング始めました BTC ・Rustレスバトル会場 ・【GPGPU】くだすれCUDAスレ part8【NVIDIA】 ・Pythonのお勉強 Part64 ・【静的型付けRuby】Clover2 【LLVM,補完付きREPL】 ・【論理】Prolog【初心者】 ・人工知能ディープラーニング機械学習のための数学 ・【イーサリアム】Solidity本スレDAPPS】 ・Androidプログラミング質問スレ revision54 ・インスタのフィッシングサイトを作りたい!! ・くだすれPython(超初心者用) その45【Ruby禁止】 ・新言語開発スレ ・【反面教師】 オプソで汚いソースコードを見てみる ・自分中2だけど、今から言語勉強すれば稼げるかな ・test ・スレ立てるまでもない質問はここで 154匹目 ・MQL5について知りたい ・流行り物のバージョン管理ソフトなんて信用できん! ・クライアント「神々たる仕変!後悔など遅い!」 ・各言語の記法と用語の変換スレ ・【人柱】自作ソフトデバッグ依頼スレ【募集所】 ・シェルスクリプト総合 その31 ・【初心者歓迎】C/C++室 Ver.101【環境依存OK】 ・Windows 10 UWPアプリ開発Part 3 ・C#, C♯, C#相談室 Part96 ・学校でjavaの宿題出てるんだけど ・表計算ソフトは人類の生産性を大きく下げている ・統計解析R たぶんpart3くらい ・Pythonのお勉強 Part51
03:12:23 up 7 days, 21 min, 1 user, load average: 111.52, 136.58, 137.61
in 0.85039901733398 sec
@[email protected] on 091916