◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【統計分析】機械学習・データマイニング19 	YouTube動画>2本 ->画像>5枚  
動画、画像抽出    || 
この掲示板へ   
類似スレ   
掲示板一覧  人気スレ  動画人気順 
 このスレへの固定リンク: http://5chb.net/r/tech/1520586585/ ヒント: http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
   機械学習とデータマイニングについて何でもいいので語れ若人   
 ※ワッチョイだよん   
 次スレ立ての際は、一行目冒頭に 
 !extend:on:vvvvv:1000:512つけてね   
 ■関連サイト 
 機械学習の「朱鷺の杜Wiki」  
http://ibisforest.org/   DeepLearning研究 2016年のまとめ  
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76     ■前スレ 
 【統計分析】機械学習・データマイニング17  
http://2chb.net/r/tech/1502032926/   【統計分析】機械学習・データマイニング18   
http://2chb.net/r/tech/1507807291/  VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured 
  理由ちょっと考えてみたけど 
 あんな前時代的な町工場的ハイポリモデルはほとんど無価値だ 
 この方が衝撃やね 
  最近、AIはパーセトロンが〜とか、 
 昔から人工ニューラルネット、工学モデルと言われているがw 
 ローゼンブラットがパーセプトロンを発表したときに何に着想を得て作ったかという話でしょ 
 「学習」だと知性があると勘違いしてしまうので、 
 >>14   フィッティングだけでも「学習しない馬鹿な人間」よりも上だったりするからな 
  究極を言えば人間も筋肉を出力とした誤差関数のフィッティング 
 人差し指にすこ〜し力を入れるだけで人生が大きく変わってしまう現代でなにいってだ? 
 目先のお金のために騙すようなことすると、実は大したことやってないとバレた時に信用を失うよ。 
 2つのデータセットがあって 
 進歩はやい分野で昔作ったものをたいしたものじゃなかったと言われても困る 
 特徴量Xの選択や出力Yの確率分布関数の選択は人間がやっているのに、 
 >>41   いやいや14の意見は機械学習の動作原理よく理解していればまともな意見だと思うけど 
  囲碁将棋でAIに全然勝てないから、俺達の方がバカってことでいいよ 
 機械学習は単なる統計学の 
 『ゼロから作るディープラーニング』のアマゾンレビューを久々に見たが 
 あれは良書だと思ったけど 
 あーRNN(LSTN)方向にいくんか 
 インターフェース 2018年5月号 買った人 or 見た人 いる? 
 学習用作成したデータの標準化って、要素単位でやるんですよね 
 次元です(体重、身長、性別(ダミー))とあった場合 
 計算は要素単位だろうけど標準化は配列全体をひとまとめに扱わないと無理じゃね 
 黒木玄 Gen Kuroki 
  @genkuroki 
 #統計 #Julia言語 
 #機械学習 の話を調べると、過学習を防ぐために「適当なところで最適化過程を止める」のような「極めて怪しいこと」(笑)をやっているようです。 
 その「極めて怪しいこと」(笑)の様子を単純なモデルで見てみたかったので、動画を作ってみました。 
 添付動画は n=64, d=3 の場合  
https://twitter.com/genkuroki/status/977913862560165888/photo/1       #統計 #Julia言語 動画1つ当たりの作成時間は約12秒です。    
https://gist.github.com/genkuroki/c440bc748ba230921c1a1f3613053b21  …    
http://nbviewer.jupyter.org/gist/genkuroki/c440bc748ba230921c1a1f3613053b21  … 
 >>67   過学習なんて、倒立振子の時代から問題になっていましたよ‥別に新しい話題ではないね‥ 
  >動画1つ当たりの作成時間は約12秒です。 
 機械学習における過学習は、機械学習が出てきたときからあるし。 
 overfittingの歴史ってどこから始まってるの? 
 坊やがまだパパの金玉の中で尻尾振って泳いでいた頃からさ 
 カスゴミの異常なまでの噛みつき方は過学習の結果かもしれんぬ 
 >>86   それぐらいディープラーニング普及してるかな? 
 まあど素人の俺がtensoflowやchainerやkerasいじっているんだから結構普及しているのもな? 
  「天才」年収1億円で採用 ゾゾ、先端技術の人材募集 
 http://www.sankeibiz.jp/business/news/180402/bsc1804021958007-n1.htm   AIやビッグデータ処理、ロボット工学といった技術系を中心に、博士号取得者、研究員などから 
 年収1千万〜1億円の「天才」枠は最大7人。年収400万〜1千万円の「逸材」枠は最大50人   
 ゾゾの社長ってこの前62億円の絵画を買った人 
 ちょっと前に 
 >>92   新興のIT企業の場合そもそも永久就職する前提で就職しない 
 数年で成果上げて次の職場に進むか起業すればいいから就職先は今さえ儲かっていれば特に問題ない 
  機械学習がいくら人工知能だと持て囃されても 
 まあ、機械学習が人工知能というわけじゃないわな。 
 ディープラーニングよりも 
 問題設定によるとしか 
 >>98   だいたいはそう 
 しかし事例はまれだか重要なレアケースを拾えなくなる 
  >>98   >線形関数のほうで解決出来るケースが多い気が   
 結果の良し悪しを度外視してみた場合には 
 扱いも作りも楽だから適用しやすいのでそれは言えるだろう 
 同じことから汎用性を考えればそういえると思う。   
 良い結果を求めたいという話(今回はそう書かれていない)になると 
 話は異なるが、今回は人が線形でという前提になっているので。   
 もし、計算のアルゴリズム自体をAIが自動的に作成してくれると 
 なった時には、違うでしょうね。 
  AmazonML(Amazon Machine Learning)を使っている人いますか? 
 使用している方がおられるということなので 
 ワイの美人と評判の妹も 
 これって自前のデータをkaggleにアップロードして分析可能ということかな 
 しかもタダで 
 グーグルさんどんだけ太っ腹なんだと    
http://blog.kaggle.com/2018/04/03/q1-2018-product-update/   卒論で1年かけてディープラーニングやることになったんですが 
 実装をCとかJavaで造る(車輪の再発明)のが目的なの? 
 C言語で書かれてるライブラリならdarknetがあるけど、実装が目的なの? 
 >>113 ,114 
 卒研なのでそのへんも自分できめていいんだと思いますけど 
 最悪ライブラリにデータ流し込んでグラフ描いて適当な考察のせておわりでもいいんですけど 
 1年あるしプログラムかくのがすきなのでできれば中身をかいて理解したいなーと思ってます 
  ディープラーニングをやるだけじゃ何もテーマ決まってないのと同じだよ 
 ライブラリの中身知りたいならゼロから作るdeep learningがCNNまでをライブラリ無しで実装しているのでオススメ 
 >>116   画像認識とチャットボットとゲームAIあたりがいまうまくいってるみたいで 
 何かサンプルプログラムできたらなーってぐらいです   
 ちょっとゲームAIに応用するならどうなるのかなって考えてるところで 
 入力の与え方は分かるんですけど 
 出力と誤差の設定の仕方がわからなくて…   
 たとえばマインスイーパーをとかせるとかだったら 
 盤面情報を入力ベクトルにして 出力に開くマス「X,Y」とかを設定すればいいんでしょうか? 
 その場合フィードバック誤差は爆弾をふんだ時点で-1 クリアまでいったら1とかにすればいいんでしょうか?   
 プログラムで誤差の逆伝播でニューロン関数のチューニングを実装すれば   
 利用者は入力出力誤差のエンコードだけやれば 
 あとニューロンの関数チューニングは勝手にやってくれていつのまにかAIができてるって感じになるはずなんですよね?      
>>117   ありがとうございます 
 書籍なんですね 
 4000円もするの手が出ないので研究室にないか明日みてみます 
 なければ図書館さがしてみます 
  ごめんなさい 
 ゲームのAIはA*アルゴリズムとか習うんじゃね 
 A*って将棋とか相手のいるゼロサム対戦ゲームで枝狩りする探索アルゴリズムじゃないです? 
 >>112     >>入力ベクトルあたえたら出力ベクトル出す予測器があって 
 出力ベクトルに対して誤差とかスコアを設定すると 
 予測器の中身の関数がかわっていくみたいな?認識であってますか?   
 いんじゃね 
  ゲームAIは全然詳しくないから全然アドバイスできないけど 
 卒研の後書き 
 かつていたが 
 >>118   上手く行くのが判ってるのをやっても価値がない論文 
  以下はアルゴリズム 
 なんだかんだ言ってちゃんとアドバイスしてくれるのなお前ら 
 パーソンオブインタレストに学ぶAI攻撃型AIの設計と実装 
 パーソンオブインタレスト面白かった。もう終わったかな 
 盤面入力に負値を使うと活性化関数でハマるからおすすめしない 
 評価関数の最大化とかではなく少ない計算量で学習させて正解に辿り着くようなアプローチってどっかにないのかな 
 機械学習で、おっぱい触らせてとかエロい口説き実装出来ますか? 
 >>137   >口説き 
 これはその方法論を知りたいですねえ 
  >>137   そのGPUパワーでビットコイン採掘した方が口説ける確率上がると思うw 
  日経ソフトウェアが別冊付録付きでpython機械学習特集になっとった 
 >>141 
 ほとんどがエアコン代でさ 
 jupyter labとnotebookどっも括弧やクォーテーションの補完が効かないんだけどデフォ? 
 大学の社会学部で以下のような刷り込みをされた。すなわち、人間関係を非常に重視し、なんでも彼らの中で相談したうえで自身の判断を下すような輩は「他人志向型」で「内面志向型」に比べて程度の低い人間だと。 
 前者はAIでも可能 
 某中堅の監査法人に勤めていて、1年ほど前から、人工知能を使った業務の自動化を検討して、 
 機械学習なんか数学わからなくても適当にライブラリ突っ込めばなんとかなるだろ 
 >>158-159   着地点は実装ですが、前提として理論はしっかり学んでいきたいと考えています。   
 以前にも、コンサルティング会社とシステム会社にオブザーバーをお願いして、 
 内外のツールの選定作業をしましたが、どれも実務上使い物になるものはありませんでした。 
  お前が作ったやつが実用になるとおもってるのか(苦笑) 
 業務の自動化に費やした時間>通常業務時間 
 >>160   もう、自分たちで作るしかないな   
 理論からしっかり組み立てて 
 試行錯誤の後、3年くらいで使い物になるものが出来るんじゃね? 
  専用にプログラマ雇ったほうがいいのでは? 
 システムの継続と保守ってとこが、無限に金吸い込まれて行くブラックホールになるんだよな。 
 コメントありがとうございます。 
 理論寄りの話はコンピュータ科学、実装寄りの話は情報工学やソフトウェア工学を学ぶのがいいと思うよ。 
 ツイッターで 
 >>155   人工知能を使うことが目的になってるように見えるけど、人工知能でどういう問題を解決したいの? 
  > 某中堅の監査法人 
 深層学習の畳み込み層の処理は「畳み込み」じゃなかった件 
 http://tdual.hatenablog.com/entry/2018/05/02/113110   https://twitter.com/tdualdir/status/991505578311667712   正しくは相互相関 なぜConvolutionalと名付けた まあ、ただの名前だし、数学の用語が誤用させるのはよくある   
 T2@T_Shuke 
 微分・積分・統計学を学べばconvolutionは幾度も出てくるけど、勉強してこなかったデータサイエンティスト(笑)はcnnで元来の意味とは異なる畳み込みを先に覚えてしまうということか   
 tdual@情報幾何 
 おい。畳み込み層の処理は畳み込みじゃないのかよ。 
 相互相関かよ。   
 きくらげ@Kiikurage 
 最近の「CNNは畳み込みじゃない」論争、なにが発端? 
 なんかこえー畳み込みおじさんいて笑う 
 実際、CNNが畳み込みだと思ってる馬鹿が多いことに呆れるだろ 
 あなたは心の病気だよ  
 単純なデータマイニングだったとしても 
 >>183   そもそもAIに統一見解などないので何でもAIと言ってもいいしAIでないと言ってもいい 
  この説明もわかりません 
 ちなみに以前からいる数オタサラリーマンはID:5AtpQsf4aではないから一緒にすんなよ 
 >>184   最適化には見えるが、シンプレックス法を使っているかどうかは 
 だれがみてもわからないでしょ。 
  >>187   最狭義に解釈したら全脳シュミレーション。 
  ある個人が1日に10回体重を計ったデータが100日分あるとしてください 
 同じ人の体重が1日10回の100日あったところで微妙な体重の増減しかわからないし、ディープラーニング関係ないんじゃないの? 
 >>193   最近の流行は前者ですね 
 1000サンプルでは全く足りないと思いますが 
  >>193   特徴量間とか言って体重以外にどんな特徴があるかわからんし何させたいのかわからんからなんとも言えない気がする。 
  話をぼやかすのはいいけど大事なとこも飛んでるんじゃないか 
 >>195   ありがとうございますその方向で始めてみます    
>>194 , 196, 197 
 すみません例えが悪すぎました 
  マイクロソフト、FPGAを用いたAI処理基盤「Project Brainwave」開発者向けプレビューを発表。GoogleのTPUより高性能と。Build 2018 
 https://www.publickey1.jp/blog/18/fpgaaiproject_brainwavegoogletpubuild_2018.html   >>201   話を聞かないだけで裏で動いてる 
 大半の人は使ってるよ 
  試用期間だけ使って放置してたら営業から電話かかってきて乗り換え先聞かれたよ 
 >>200   ニコニコドワンゴのFPGAはどうなったんだっけ? 
 断念したんだっけ? 
  >>201   あんたが知らないだけ。 
 今のMicrosoftは、WindowsやOfficeじゃなくてクラウドの会社。 
  千葉 雅也『勉強の哲学 〜来たるべきバカのために』は、昨年度の文系書籍部門ベストセラーだったけど買わなかった。 
 まあおそらく、全ての知識は陳腐化するから全ての人はバカになる。だから、バカを極めた超バカは超賢いに?!? 
 さっきインスタンス死になりかけた。 
 >>210   面白そうな人だね   
 プログラミングでいえば、 
 C++ の求道的な道には見切りをつけて、javascript ruby, php, らの流行のフレームワークを追いかけつつ 
 糞なプログラムもどんどん書こう、   
 ということですか 
  過去のAIブームと同様に機械学習ブームも早晩終わるわけで、根底にある統計学的な理論を理解しようともせず 
 RDBMSの理論的背景を知らなくたって、ただblogサイトを作るために(Wordpress等のために)MySQLを使うことはできる。 
 >>215   日用品化していくからこそ、それを単に使えるだけという能力には徐々に価値がなくなるので背景の理論の理解が必要ということ 
  ニューロファジィ洗濯機とかあったな 
 基本的にAIと呼ばれたものが一般に広まって当たり前に使われるようになれば単なるアルゴリズムの一種としか見なされなくなるから過去のAIブームの産物も消えたようでこっそり生きている 
 >>210   一つの学習器だけ使ってると過学習するから弱学習器をいっぱい積み重ねた方が汎化性能良くなるよ、って話かな。 
 人間としてどっちが上等とは一概に言えない気もするけど。 
  たしかに人間も過学習で馬鹿になった人をいっぱい見かける 
 >>217   最高性能を追求するならそうだけど、SOTAの8割の性能でいいから自動化したいみたいな用途なら出来合いのお任せでも十分 
  >>223   労働者目線では出来合いのおまかせなら誰でもできるわけで給料が上がりづらいので、 
 理論を体系的に理解した上で各時代の最先端(その時点では簡単に出来合いのものを、というわけにはいかないもの)が扱えなければならない 
  年を負う毎に技術が高度化しているから、技術格差が所得格差に繋がるのは必然でしょうね。 
 現状こんなところ 
 >>229   >いずれ壁にぶつかるよ 
 それは、オマエの狭い狭〜い了見からの思い込みにすぎない。   
 壁にぶつかるか、壁を突き抜けていくか。壁を突き抜けていくと考える研究者の方が多数派。 
 最近のトップカンファレンスでの発表を見聞きしていると、その確信が深まる。 
  >>229   ただ氷河期があるだけだよ。今のブームが終わると次は10年以上先に第4次AIブームがくるだろう(たぶん、きっと) 
  >>232   NIPS、IJCAI、ICML、ICANN・・・ 
 e.g. GANs in ICANN2017 
  壁を打ち破る理論が出るのが早いか 
 機械学習は進歩早いからオリジナルの技術って言っても何かに利用しましたっていう部分しかない。 
 競艇とか競馬の着順予想って順位を予測するのが多いのかな? 👀  
 つうかただのPGはどの分野でも400が相場だろ 
 プリンターのお守り 
 >>246   流行の最先端を走ってるPGなら800はいける 
 米国なら青天井 
  >>249   >流行の最先端 
 今の最先端はなんですか? 
  今の労働市場で、PG400万円って、よほどこき使われているだろw 
 元請けはそのぐらいかもしれないけど、首都圏でも下請けには人月80万ぐらいで発注するから 
 売り上げ計算するより求人票見れば相場すぐわかるから 
 >フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない 
 サラリーマンには、サラリーマン(給与所得)控除があるから、 
 家買えないほど格差があると分かっていてその点が重要なのなら自営業などやめればいいだけのこと 
 TensorFlowで機械学習デビューしたいんですけど、何かおすすめなカリキュラムありますか? 
 NICでも作ればいいんじゃない? 
 自然言語処理でコーパスって言葉が出てくるのですがこれはテキストデータの集合体を指すのかテキストデータを加工して名詞に分けたりしたものの集合体を指すのかどちらなのでしょうか? 
 >>260   回帰系・自然言語系なら、詳解ディープラーニング 
 TFとKerasのコードが載っていて分かり易かった 
  >>272   今流行ってるのはなんですか? 
 なぜゼロから作るDeepLearningに紹介されているにですか? 
  原理が難しいアルゴリズムは研究が進まないからどうせ流行らん 
 流行る・流行らないは結果が全て 
 流行関係無く研究させてくれるならコホーネンをやるですよ。 
 今回の流行は、素人でも統計解析のライブラリを呼び出すコードを 
 初心者ですで頭おかしいこと言ってるかもしれませんが質問に答えて下さい 
 >>288   答えて下さいよ 
 勉強足りないのは自覚しています 
  >>287   SGDは損失関数(loss func)じゃなくて最適化関数(optimizer)な 
 数式ちゃんと理解しないと学習率の調整が出来ないから、全部ちゃんと調べる様に 
  結局、バックボーンとなる数学的な理論を理解しないと何もできないんだよな。 
 そりゃインパクトファクターの多い論文は基礎の理論を展開しているけど 
 理論が重要なのはわかるけど、ほとんどの人にとって知りたいのは導出過程よりも結論だけだろうしなあ。 
 理論が分かる人が新しい技術を生み出し搾取する側になれる 
 >>296   >理論が重要なのはわかるけど、ほとんどの人にとって知りたいのは導出過程よりも結論だけだろうしなあ   
 こういう言い訳する人は多いが、導出過程を知ることが大切なのではなくて、 
 導出過程を通じて考え方を学ぶことが大切なんだよ。 
 そういう考え方を通じて正しい使い方は分かるのはもちろん、新しい発想が生まれる。 
  道具として使って結果が欲しいか、道具から新しい世界を発展させたいか。 
 利用しやすくなるのは、技術者だけじゃなくてユーザーもそうだから。 
 中米の論文数に焦ってるやつが前にいたけどなんか落ち着いてるね 
 >>301   AIエンジンができれば誰でもできるようになるね。 
  >>299   車にガソリン入れるときにライターで口を照らすような人が減るのは良いね 
     _, ._  
 使うためには原理を理解するのが必要なんだよ。 
 株や為替予測AIを作っている人は酷いモデルが多いね 
 >>311   どうせチャートとファンダメンタルズだけ組み込んで要人の発言とか新商品とか新技術の材料は組み込めない。 
  >>313   >要人の発言とか新商品とか新技術の材料は組み込めない 
 そういうのは技術的にAIに学習させたとしても無意味。   
 発表前に既に株価に織り込み済みだから。ちょっと株価を研究した奴なら分かる。 
 情報戦で勝とうとしても、上には上が居て厳然たる情報の非対称性もあって勝ち目なし。 
  一番確実なのは、明地文男の3点チャージ投資法。 
 まぁ、そういう気づきが大事だね。 
 >>317   Rubyじゃないけど発表はクリスマス前とかボーナス前やろ 
  scikit-learnとTensorFlowによる実践機械学習っていう本買った 
 自然言語処理AIの勉強が必要なのは、別に「要人の発言を組み込め」っていう意味じゃなくて 
 キズナアイが人工知能と聞いたんですが、ほんとですか 
 人工知能=人工的に作られた、知能を持っているように見えるもの 
 ライブラリを利用できるだけのプログラマーの間でも 
 特徴抽出のセンスってデータの前処理の話? 
 そっか、自分いま機械学習の勉強を進めてて 
 >>331   お前にとって美味しいかは知らないが実力があれば今と今後、最も稼げるのはほぼそうだろ。 
 プロ野球とか芸能人とかも年収差はある。 
  >>331   >>246   君には輝ける未来が待っている(適当) 
  日本で一生過ごす前提なら結局スペック高かろうが低かろうが大して収入なんて変わらない 
 特殊スキル持っても一般では理解されず、学歴で見られる 
 日本である程度稼いだら東南アジアに引っ越してダラダラと暮らしたい 
 年収600万くらいかねえ。1エンジニアで1000万とかまず超えない 
 日本では文系職でも理系職でも皆同じようにしか昇給しないからな 
 現時点でAIデータサイエンティストとして院卒レベルの人材じゃないとノーチャンだよな 
 データサイエンティストって職業成り立ってない。 
 問題はデータサイエンティストとしての知識を披露したいのに、結局凡人が理解出来る範囲しかデータを提供出来ないということ。 
 そういうのは論文か本かブログで発表するといいと思いう 
 いやだからお客様のデータを論文で披露するわけないやん 
 >>354   まともなAI(ω)なら会社変われって結論を出すと思うが 
 おまいは従えるか? 
  DSの仕事は日本にはそうそうないらしい 
 機械メーカーの研究開発職であちこちセンサー付けた自社製品の機械をひたすら動かしてデータ収集して 
 客のデータで重要な知見が得られたならそれは当然客が競争優位に立つために重要なので詳細を公表できるわけがない 
 この分野もプログラミングと一緒で 
 そんなことないさ 
 この業界で出来る人、ほんとにそのぐらい出来るぞ 
 pythonできるならpythonでやればいいだろう。 
 案外遠くないかも 
 ruby持ち出すあたりと言語の数でアピールするあたりは土方 
 >>369   rubyでやるようなことをC++でやるのは時間の無駄だろう 
  論文読んで実装できて、DBを操作できて、画像なり自然言語なりひとつ専門分野を 
 rubyやpython等のスクリプト言語はあくまでスクリプトでありその場で結果を確認しながらデータを操作するのに向いている 
 DSならほとんどの職場でRはメイン言語 
 日本なんかpythonエンジニア用無し。 
 COBOLは退職間際のオッサンなら無理に他の言語学ぶ必要もないが、20代・30代がやるのは危険過ぎる 
 あの何でもコピーして済ませようとする性癖が身につくと 
 500以上の求人は管理職クラスになってくるからきついよ 
 DSはともかく、機械学習のエンジニアの求人は、1000以上でもスキル要件自体はそこまで厳しくないような… 
 アメリカの場合、別にPythonが使えるから高収入なわけではないしな 
 流石にpython使えば収入上がるなんて夢想するバカはおらんだろ 
 技術力の豊富さ≠年収ではない 
 pythonのスキルが年収に相関があるんじゃなくて 
 数学+統計+機械学習 
 よほど機械学習で変わるような業務でないと給与は上がらんでしょ。netflixみたいに推薦がなければ事業が成り立たないような 
 元々そんなに年収高くないサラリーマンやってる前提の話なのか。 
 実際そうなんだよね。求人見ると、よさげなところがちらほらある 
 【開戦空振り、XDay″】 トランプが米朝戦争、回避したので、九条改憲も、説得力を失った m9(^Д^) 
 http://2chb.net/r/liveplus/1528170899/l50   なんでうちのパパ年収1千万超えてたの? 
 金の引換券とか和牛の権利を売りつけていたんじゃね? 
 >>393   この場合の数学+統計+機械学習ってどのくらいのレベルでしょうか 
 BishopやMurphyのテキストがちゃんと解読できるくらい? 
  なんで機械学習ってインタプリタ主流なの? 
 VIDEO   【大学数学】ベイジアンネットワーク【機械学習】 
 概出? 
  >>404   最新の論文を三日ぐらいで読めればOK 
 わりとゆるい 
  >>408   なるほど 
 あのレベルのテキストだと歯が立たない箇所が多くて 
  コンパイラ使うの面倒だからじゃね。 
 実験的にパラメータちょっと弄って変化確認するならインタプリタが最適 
 Pythonは実行時にバイトコードにコンパイルする。いわゆる中間コード方式 
 結局、機械学習って、 
 どうしてそういう学習をしたのかプレゼン出来ないと 
 >>415   グーグルのアルファ碁からしてわかってないけど発展してるだろ。 
 別にはなるが、ディープラーニングを広義に学習方法の自動学習法と捉えた場合。 
 使う手法が、多層ニューラルネットである必要はないわけだが。このへん進んでるか。     
 ディープラーニング - Wikipedia   
 しかし、近年、ヒントンらによる多層ニューラルネットワークの学習の研究や、学習に必要な計算機の能力向上、 
 および、Webの発達による訓練データ調達の容易化によって、充分学習させられるようになった。 
 その結果、音声・画像・自然言語を対象とする問題に対し、他の手法を圧倒する高い性能を示し、2010年代に普及した。 
 しかしながら、多層ニューラルネットが高い性能を示す要因の理論的な解明は進んでいない。 
  Wikipediaコピペは馬鹿にされるからやめたほうがいいよ 
 機械学習の個々のアルゴリズムには流行り廃りがあるけど統計学に基づく点には変わりないので 
 これは? 
         情報幾何への入門と応用  
http://www.sci.osaka-cu.ac.jp/ ~ohnita/2006/inf_geom/sos_dan/book_0403.pdf     
 非加法的エントロピーを加法的エントロピーにする方法ーAdS/CFT対応の情報幾何バージョンー   
http://www2.itc.kansai-u.ac.jp/ ~afujioka/talk/tanaka.pdf 
 CNNとLSTMを"deep"でひとくくりにしていいもんだろうか 
 >>413   バイトコードにしたからと言ってネイティブ機械語みたく爆速になる訳じゃないよ 
 for文とかアホみたいに書いてるよりスッキリnumpy使え 
  >>419   いまは実感が湧かないけど、たぶんだけど35歳とか過ぎた頃に違いが出てくるんだろうな 
  >>420   情報理論は場合の数の加法性の仮定が前提にあるから使えない。 
 後者の記事は条件が限定的過ぎて使えない 
  機械学習のブラックボックス化された関数うんぬんというけど 
 機械学習ブームがここまで盛り上がるなど予想されていなかったので基礎研究からやってる企業を除いて機械学習の専門家を雇っている企業などほとんどない 
 だとしたら、アセンブラ出来ない奴、デジタル回路が組めない奴、はみんな基礎が分かってないから 
 富士通のZinraiとか、金かけて、宣伝しているけど、 
 大手企業つっても零細に丸投げしたの納品したりするから出来がまちまちなんだよ 
 東芝、NEC、オムロン、富士通、日立 
 日本のメーカーは組織が疲労している P ドラッカー 
 AIで会社経営を立て直すには過去の大量の成功・失敗の経営情報が詳細な内部情報とセットで必要であり 
 BIやっても 
 機械学習って、統計学の横に色んなジャンルが派生的に発展していて 
 派生部分しか理解していない人は流行りが終了すれば新しい流行りを1から勉強し直す 
 大学程度の数学と物理をやっとけ。できるなら修士レベル。後は後からどうにでもなる。 
 あとからどうにでもなるなら、高卒でもいいだろ。 
 >>451   勉強などやる気さえあれば誰でもできるがそもそも高卒という時点で機械学習エンジニアとしての採用はほぼ閉ざされるから 
 企業のリソース使わず自力で機械学習でビジネス起こす当てがあるなら話は別だが 
  数理工学、数学、統計 
 数学・物理の出身者は、物事を抽象化して捉えるセンスが群を抜いてる。 
 >>456   それほぼ一緒だとおもうが。たとえば、不完全性定理とか数学的抽象度が高いし論理的だろ。       
 不完全性定理    
 数学を基盤にし、証明を積み重ねていけば、 
 いつかは「世界のすべての問題を解決するひとつの理論体系」「世界の真理」に到達できるのではないかと信じられていた。   
 さて、1930年頃のこと。 
 数学界の巨匠ヒルベルトは「数学理論には矛盾は一切無く、どんな問題でも真偽の判定が可能であること」 
 を完全に証明しようと、全数学者に一致協力するように呼びかけた。 
 これは「ヒルベルトプログラム」と呼ばれ、数学の論理的な完成を目指す一大プロジェクトとして、当時世界中から注目を集めた。   
 そこへ、若きゲーテルがやってきて、「数学理論は不完全であり、決して完全にはなりえないこと」 
 を数学的に証明してしまったから、さあ大変。   
 ゲーデルの不完全性定理とは以下のようなものだった。 
 1)第1不完全性原理 
 「ある矛盾の無い理論体系の中に、肯定も否定もできない証明不可能な命題が、必ず存在する」 
 2)第2不完全性原理 
 「ある理論体系に矛盾が無いとしても、その理論体系は自分自身に矛盾が無いことを、その理論体系の中で証明できない」    
http://noexit.jp/tn/doc/fukanzen.html    >>454   実は機械学習のエンジニアの求人は学歴不問のところが多い 
 バイトから入るという裏技もあるから、やる気さえあれば高卒でも余裕でなれる   
 独学→バイト→正社員→お金を貯めて研究者   
 理論的には、無理ではない 
  あと自分は絶対にやらないけど 
 学歴不問って職務経歴だけ見ますって意味だよ。 
 >>463   >>あと物理と機械工学は別だから。  
 そこらへん詳しくないから適当書いたスマン   
 でもバイトで職務経験つけて、そのまま正社員になった奴はうちの会社に一人いるぞ 
 年齢的に、院試を受ければ、研究者にもなれるんじゃないかな 
  >>451   高卒には越えられない壁がある 
 よほど貧乏で大学行けなかったとかでなければ 
 理解できる頭あれば大学卒業(あるいは修士以上)してるはずで 
 高卒が高卒たる所以 
  言うか! 
 >>466   毒親もな。連帯保証人無しでは学校も行けない。入院も出来ない。 
  中高生の時に虐待を受けていたからまともな精神状態で勉強に集中できなかったとか、 
 そろそろ、wikiみたいな「集合知」って機械学習で置換できちゃうんじゃないかな 
 >>471   機械学習は、所詮膨大な過去を根拠にしているだけだから、新しい知恵を生み出すことはできない 
  >>473   何事かに対して、どういったジャンルに属する話かと判断して、それを総括するフォーマットを 
 類似記事から引用する学習は可能だと思う 
 現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ 
 そこそこのマイナージャンルでも、テキストとして情報化されてきている 
 「データ群の前半に集中する情報を要約して『概要』とする」ことや、「年代と頻出で年表的に 
 フォーマットを形成する」のも可能だと思う 
 というか、Wikiの各記事においてすでにこういう「情報をまとめる上での構成」ができているんだから 
 それ自体を機械学習できるはずなんだよ 
  >>474   >現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ 
 一言で「似ている」というけれども、「犬と似ている」「猫と似ている」は現状の深層学習で実現できるとしても、 
 「似ているもの同士をまとめる」はまた別ではないか? 
 このタイプにおける教師データは成立するのだろうか? 
  >>475   「犬と似ている」と「猫と似ている」は、フォーマットとしてほぼ同じ語り口で記事になってると思う 
 同じようなフォーマットの記事から、頻出単語や構文を教師データとして、関連する情報として 
 拾うのは単純に機械学習の範囲だと思うけどなぁ 
 「同じような単語を同じような語り口で記述している記事」が教師データなわけで 
  >>476   >「同じような単語を同じような語り口で記述している記事」が教師データ 
 メタな構造そのものを教師データにできるものかな? 
  >>477   むしろそういう「言及」をデータとして扱わないと機械学習の有効性が意味を持たないと思うよ 
 「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある 
 それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない 
  >>478   >それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない 
 なるほど!   
 >「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある 
 二項関係から三項関係への進化は、今は出来ていないんじゃないかな? 
  Googleが猫の画像を判別させる人工知能を作るだけのために大量の猫画像を必要としたように、 
 Googleが画像から猫を判断させたのは、教師なしのニューラルネットワークによる学習だよ 
 高卒派遣で機械設計やっていますが3年やっても年収300がやっとなので機械学習とPythonを学んで年収500万ぐらいになりたいです 
 付け焼刃の知識は、年収5000万overの人が作った機械学習自動化ツールに置き換えられそうだ。 
 >>487   pythonって日本では需要が無いのでは。 
  日本の大企業で機械学習やってますと言ってるところはどういう環境で開発してるんだろう? 
 自動制御システムを機械学習という人たちもいるからな 
 >>485   マセマみたいな簡単な参考書で、線形代数、微分積分、統計学の知識を大学一年生レベルまで習得 
 これなら分かる最適化数学、言語処理のための機械学習入門、はじパタ本を読む 
 プログラミングは、書籍だけで勉強する場合、pythonの参考書を最低五冊 
 また、英語を勉強して、論文を読めるようにするように   
 DB、クラウドの知識もほしいし、前処理についても独学しておいた方が採用されやすいだろう 
 カグルにもチャレンジした方がいいかなあ 
 あと絶対むずかしい参考書に手を出すな! 絶対だぞ! 
  むかしから日本は共有知を軽視してきただろ 
 >>492   ご丁寧にありがとうございます 
 自宅学習がまるでできないのでまずは基本情報を取って自信をつけてみます 
  「〇〇入門」は山ほどあるのにその先を教えるものになると日本語の情報は激減するよな 
 どうせ、価値ある一次情報は国外からしか出ないから、まず、英語で良い。 
   新井女史が人工知能の最高峰な国、Japan。  
https://booklive.jp/review/list/title_id/493315/vol_no/001   >>469    同意。そこらへんのことを本当に知らない人多すぎ。 
  まあぶっちゃけ、自分が思い浮かぶ程度の手法は、エクセル先生でできちゃうし、実務上はそれをわざわざRやらPythonやらでやるインセンティブもないわけで。 
 ロジスティック回帰とかそこら辺になりゃ意味あるがあまり機会がない。やらんでなんとなく過ごしてる自分が悪いだけ疑惑はあるけどw    
https://twitter.com/ikasanma/status/1007588876251160582   流石にEXCELとPythonは使い道が違いすぎる 
 >>501   背景の緑のマトリックスみたいな画像がpython関係なくてダサすぎる 
  Excelは昔から統計分析でも使われてきたし変ではない。 
 データ量肥大化でpython処理が重くなるというならEXCELの場合重くなるどころか開くことすらできなくなるけどね 
 Excel推しの人ってみんな言ってることがどこかズレてる印象 
 というか、EXCELしか使えないからそれしか選択肢ないんだろう 
 まず、エキスパートシステムは部分的には成功しているぞ 
 >>512   >株式予測は、データが増えれば増えるほど成功する 
 株価が上昇するか、それともアンダーウェートか、それだけでも判定できるのなら大いに役に立ちます! 
 勝率はどれくらいですか? 
  株価予測は簡単じゃねえわ 
 株価は、あらゆる情報を用いたとしても、日経平均などの平均値を超えられないという、予想が信じられてるんだろ。 
 株価予測が可能かどうかに関する理論・仮説はこれだ。 
 自分の考えは、株価予測は不可能という効率的市場仮説はほぼ正しいとおもっていて。 
 すまんスレチだが助けてくれ 
 >>519   オラクルのサポート契約結べばすぐ解決するよ! 
  >>501   FRBのモデルはJuliaで作られているのにな。日銀はmaltab。pythonすらでない。 
  >>516   考えてみたところ、日経平均やNYダウや為替レートなどいろいろな要素が多く入ってる程、予測できない一方で。 
 これに反対してるウォーレン・バフェットの理屈も理解できるな。 
 特に社長個人に注目して、信念とか哲学とか聞いてみるとか、会社見学して社員教育や社員の熱意、やる気を確認するなどすれば、 
 いずれ(平均以上に)成長できる会社を発見するのはできそうだからな。 
 そうなると株価予測というより成功者を見つける事になってくるが、これは同一でいいのか。 
  これが、全てな気がする。 
 アメリカのインフレとその後の崩壊に既に仕込んであるのだろうな大手は 
 データの性質をよく知ってるほど強い 
 株価に影響を与える全てのパラメータがあればって 
 確かに、原理的にあらゆる情報があれば予測できるとしても、現実的にはオープンにされたデータのみから予測できなければ合法に使えないな 
 株価予想、デイトレード的なものに機械学習を導入するだけなら 
 「こういうデータがこう動いたら株価はこうなる」みたいに明示できるなら機械学習なんて不要だろ 
 >>519 だがwindows10でJDKをダウンロード、ダウンロード後保存されたJDKを 
 開こうとしても上記のような文が出てきて開けない 
 ちなみにウィルソフトは一旦OFFにしたり、オフラインでのダウンロードもしたし 
 Edge以外でfirefoxを使ったりしてもダメだった 
  パターン認識と機械学習(PRML)の輪読資料を公開 
 2018年06月18日  soneoka education, news, readings 
 C.M.ビショップ他著「パターン認識と機械学習」の輪読資料の一覧を当サイトで公開しました。 
 詳細はこちらから    
http://deeplearning.jp/deep-learning-day18-2/   実データで学ぶ人工知能講座(AIデータフロンティアコース) 
 http://learn-ai.org/about     2018-06-18  
 平成30年度後期の募集につきましては講座について(応募方法)に掲載しました。 
 募集期間は7/1(日)〜31(火)となっています。 
 >>536   SUGEEEEEEEEEEEEEEEEEE!!! 
 2chなんてくだらないものを見ていて、本当によかった 
  >>542   自分は数学専攻だけど雑で読みにくい 
 文系や工学系の人が雰囲気を味わうのに手頃なんだろ 
  >>547   たぶん話の文脈を読めてない 
 工学レベルの数学で十分だろという意味だろ 
  任意精度で最小二乗フィットをやろうとしてるのですけど、Mathematica以外の選択肢は 
 >>551   leave-one-out 交差検証での(最小二乗フィットの)限界(何次元迄だいじょうぶか)を 
 調べたくて…。 
 でも、(元データの精度はどうなのって点は置いといて)最小二乗フィットの結果に疑義 
 が起きない様に、106ビット相当の精度の最小二乗フィットでleave-one-out 交差検証すると、 
 Wolfram Programming LabのFree planだと8次が限界ですた。   
 1個外したデータでFit[]して、外したやつで誤差を計算して2乗して和を取ってるのですけど、 
 何かズルする手段があったりするのでしょうか? 
  「ここ迄やった」変数を用意して、中間結果を書き込んでやれば、 
 機械学習に興味ある新参者ですがマスター教えてください。パーセプトロンの説明だと入力値と重みの計算値を1か0で出すと思うのですが、多層ニューラルネットワークの場合は計算値を活性化関数で近似してその値を次の層の入力値にする認識でokですか? 
 何に最少事情でフィットさせるのか分からないことには何とも。 
 >>555   偽術者を自任してますw    
>>559 >>560 
 500点位の(x,y)のデータ(単調増加)    
>>561   Mathematicaで 
 xl = x^Range[0, 2] /* = {1, x, x^2} */ 
 Fit[data, xl, x] 
 みたいな感じ(たぶん厳密解法)。  
http://reference.wolfram.com/language/ref/Fit.html    >>562   2次多項式にフィッティングさせてるのね。 
 行列計算で一発で厳密解出るよ。 
 numpy.polyfit 使えばすぐ計算できる。 
  あと、leave one outが重い場合はk-fold cross validationする。 
 みんなは普段どの手法をメインに使ってるの? 
 すまん。Cで書いていたわ 
 >>565   自分がコンサル的な立場でないならそのまま客の要求する手法使えばいい 
 それで精度が悪くなっても適切にプログラミングされているのならその責任は客にある 
 逆にコンサルとしての働きも求められる立場なら何が最適なのか説明して説得できなければ駄目 
  展示会で見たdatarobotってツールが忘れられない 
 >>572   アセンブラならともかくマシンコードはオフセット計算が 
 面倒でな   
 ef 00 00 
 c3 
  >>568   DL(方法論)の指定をしてくる時点で、目的は、結果ではなく、 
 流行りのAI技術に投資しましたというパフォーマンスでは? 
  法律的な相談になると思うのですが、 
 なんか学習データの権利とか色々あったな。なんだっけ 
 他人の著作物に似たら、ダメ! 
 大小の3つの○のスタンプを投げてたまたまミッキーになっても誰も罰せられないように 
 >>575 は、著作権じゃなく、商標権で、結果的でも似たらアウト。   
 既存の商標シンボルと類似性が高いものが生成されたら、 
 自動削除するAIを併用すれば良い。 
 知的財産権違反の自動検閲は、Google Playでも、とっくの昔からやってるし 
  元データが大体x∈[0,10]なので、xではなくてx-5の多項式で近似してみたら 
 >>583   スレチと思ってるのは君だけ 
 ここはゆるい雑談スレ
>>1   それが嫌なら黙って他所へ行ってどうぞ 
  >>3   誤差逆伝播法と勾配降下法って役割いっしょなの? 
 初心者すぎてよくわからん 
  皆さん機械学習やディープラーニングはどのように勉強を進められましたか? 
 このスレは世界の頂点に立つ研究者ばかりだから素人さんへのアドバイスは難しい 
 PRML not recommended. Just kidding!!! 
 まぁ以前に比べれば過疎ったよね。月一で見れば十分だw 
 もう機械学習ブームは去った。 
 みんな今の給与水準落としたくないからライバルを支援したくない 
 >>604   別に日本のために生きているわけでも働いているわけでもないので日本オワタだろうが知ったことではない 
 そんなこと気にするより自分の能力高めて、仮に日本沈没しても別の場所でも生きていけるようにしておく方がよっぽど賢い 
  ディープラーニング学びたいのですが 
 ニュートラルネットワークについて 
 これ結局は一次関数になるのでこんな複雑に分けれないと思うんですけど?  
 会社でtensorflor使ってる所ってestimator使ってるの? 
 機械学習に向けて高校数学をやり直しています 
 統計学に数学は必要だけど機械学習に数学は必要ありません 
 統計学と機械学習は、どういう関係性・違いがあるのでしょうか? 
 >
>>620   統計学と機械学習の線引きはちょっとわかりません. 
 私は,須山敦志さんのベイズ推論による機械学習入門を読んでからPRMLを読んでいます. 
 ただ,PRMLは,必要になったときに必要な知識をかいつまむくらいの使い方がいいと思います. 
 また,2章のガウス分布の部分をしっかり読めば,ガウス分布の結合分布や条件付き分布などの計算になれることができると思います. 
 そもそも機械学習なんて名前の学習分野がない。 
 >>自説?? 
 後進国をみんなで認めて 
 機械学習なんて統計数理の一つの応用というか枝葉に過ぎないからな 
 機械学習すっぞ!!と意気込んで構築手順調べたら、ゲーミングPCクラスのスペックが必要ってことに気付かされて泣きそう。 
 tensorflowのサンプルを二時間動かして落ちる???メモリ不足でござった{END} 
 ワイの貧弱PCじゃNIC学習で3日掛かる 
 政府は、「AI人材の育成」をとか言って、予算を割いているけど、ばら撒き先は、学校。 
   奴らが育つのを待っていれば、日本は手遅れになるから、  
>>637 のような奴を救済してやれば良いのに 
 そもそも機械学習の仕組み自体が人間の脳を理論的に再現することを放棄してマシンパワーで無理矢理解決してやれ、というものなので 
 >>638   高校生までに大学院修士課程までの数学を終わらせろ。 
  >>646   いくら上がる下がる50%で当てると儲かるんじゃない。 
  50%で正解+イクラかの情報があれば俺でも儲けられる。 
 >>646 に書いてある日経平均騰落予想AI「F-Trader」っていうもののことなら53.8%と書いてるぞ 
 50%オーバーってことは放置するだけで自動的に儲かるってことだからな 
  ある程度のオーバーフィッティングは免れ得ないだろうから 
 ディープラーニングに必要な線形代数って行列計算のみ? 
 >>650   騰落幅が当たらないと99%騰落が当たっても儲からないことはある。逆も真だが。 
  当んなくて儲からないから 
 まあ本当に的中するなら他人が同じことしたら自分の取り分減るだけだしね 
 AI開発者で一番の高給取りはヘッジファンドで株の売買や投資をやっているわけだから、 
 AIファンドが他のファンドに対して有意に差をつけてるかっていうとそうでもないでしょ 
   と書いて、調べてみたら実はAIヘッジファンドの平均リターンがヘッジファンド全体の平均回ってた  
 ああなるほど 
 attentionの項目は読んでみたいけどそれだけのためならいらないなぁ 
 データを学習させますって当たり前のように書いてあって、いっぱい読み込んだりしてるんだなーくらいのイメージして資料読んでたんだけどそもそも学習ってなにやってるの? 
 画像と答えの組み合わせを丸暗記してるわけじゃないから 
 2次元の2クラス分類のデータで可視化すると良くわかるが、境界がハッキリしてなくて混じってる場合が多い。 
 c++でおすすめの参考書ありますか? 
 >>675   Deep Belief Nets in C++ and CUDA C: Volume 1: Restricted Boltzmann Machines and Supervised Feedforward Networks  
  by Timothy Masters  
 Link: 
http://a.co/4gIcuGN    機械学習を標榜しておいてpythonではなく 
 >>682   pythonよりそっちの方が人口多いからとにかくプログラマー集めて教育してpython使えるようにするつもりなんじゃないか? 
  求人広告の文言なんて人事部やら広告屋やらが間に入ってることくらい分からないのかなぁw 
 環境で言語決まってるからどうにかしてくれってことでは 
 >>684   ぺちぱーやぶいばが来てもうざいから 
 魔除けで書いてあるんだろ 
  VB.Net使えるのにC#使えません、なんて人はあまりまともなプログラマーではない可能性高いから相手にしたくないけどな 
 VB.Net使えるのにC#使えません 
 VB.Net使えてもC#使えない人なら応募要項に反してるので首に出来るから都合がいい 
 応用が必要なAIの開発を請け負っている所って、 
 キラーパスできる下請け持ってる会社って何処?俺も下請けに超絶スルーしたい。ちょwQBKみたいな。 
 Pythonでプロトタイピングして、モデルができたらプロダクションはJavaとかC#で組み込むんだよ 
 Deep Learningの輪読資料を公開 
  2018年07月12日  soneoka education, news 
 Ian Goodfellow 他著「Deep Learning」の輪読資料の一覧を当サイトで公開しました。 
 詳細はこちらから    
http://deeplearning.jp/seminar-2/#1515565927378-9a11fdc4-798a   【裏切られた、安保″】 イラン核施設  ←(2010,11)―<サイバー攻撃>―(2011,03)→  福島原発 http://2chb.net/r/liveplus/1531447465/l50    fast.aiのライブラリは既存のライブラリに比べてどう優れているのでしょうか? 
 ユニバーサルトランスフォーマーで自然言語は一区切り付いたな 
 全ベクトル再帰+タイムステップ&ポジション付与    
https://arxiv.org/abs/1807.03819   深層学習に仮説など必要ない。膨大なデータがあれば 
 深層学習は自分はしたことないけど、勾配消失してるのか結構学習失敗するみたいね。 
 そもそも入力ベクトルの各成分が独立性・白色性強いと良い結果はほとんど出ないよ 
 AIを株の売買に使って儲けている奴は確かに居るけど、 
 学習機に突っ込む前に恣意的にある程度データ整形する必要があるんだが、 
 株は個人で買える金額に限度があるし 
 限度なく買えるぐらい資金あるならわざわざ運用などしない 
 私立文系卒エンジニアだけど、機械学習とかデータサイエンス興味ある。 
 ちなみに自分のスペック 
 >数学力どれくらい必要??? 
 そのくらい自分で調べて準備できないなら無理だから諦めろ 
 研究者になって論文発表するのでなければ、
>>719 のスペックが理解できる範囲で十分 
 実際アドホック分析ならExcelとSQLくらいで十分 
 仕事以外で機械学習勉強された方はいますか? 
 >>728     英語が読めればfast.aiやkaggleのtitanicチャレンジ 
 読めなければQiitaなどで初心者向けにコードを載せている人や 
 kaggleの解法を解説している人がたくさんいる 
 手元にExcelぐらいしかなければブラウザでh2oを動かすとか 
  >>728  です 
 レスくださった方ありがとうございます 
 courseraは先月始めてみました 
 スケジュール的には大丈夫かと思ってたら10分の動画ですら理解するまで1時間以上かかって全然進まず、テストも1週目から全然分からずで自分の理解力の無さに絶望しました 
 kaggleは聞いたことなかったのでQiitaを見ながら進めてみます 
  コーセラやってたけど俺も予定時間よりとんでもなくかかったし何より1週目のテストの問題の意味が分からなくてそこでやめた 
 ♪ コーセーラ、コーセーラ 
 大学行って、嬉しかったが、いつも出てくる講義はコーセラ 
 大学行ってコーセラってどういうこと? 
 教授が書いた教科書買わされた挙げ句、授業がつまらなくて結局サボるより良心的 
 線形代数ってさ、ベクトルの復習みたいなのから始まって、加法、定数倍とかなんだ簡単じゃんとか 
 高校数学向けに洗練された範囲とそうでない範囲の違い 
 >>749   高校数学で固有値固有ベクトルってやったっけ? 
  Courseraの機械学習の有名なやつ、Pythonでやってくれたらいいのに 
 >>747   線型代数    長谷川浩司 
 線型代数学 佐武一郎 
  線形代数は大学で講義受けてた頃はひたすら新しい定理を出して証明するような感じだったから意味不明だったけど 
 最近PAP-1がPAPPに見えるのが気になって仕方がない 
 >>254   本人に渡るのは3分の1以下が相場じゃないか?   
 80万で発注してるとしたら、本人に渡るのは27万ぐらいで、税金やらなんやらで手取り20万強といったところ。   
 だから、使ってるほうは高い金払ってんのになぁ、となり、使われるほうは、大して貰ってないのにあれこれ言われんなぁ、となる。 
  機械学習に数学は必要だけど、テストじゃないんだから、数式が解けることがゴールじゃない。 
 数学はディープラーニングだからな。 
 カーブフィッティングか判断するには統計的知識は必要だよな 
 kerasを使い、かつ新たな機械学習モデルを作らないならば 
 python+vimキーバインドでデータ解析するための環境を模索してるけど結局ブラウザで実行するjupyter notebookが一番快適だな 
 超初心者だけどkaggleやりたい 
 kaggleやりたいにme tooだ 
 kaggleはtitanicが入り口 
 >>774   ありがとう。なるようにしかならないし、やるだけやってみるわ 
  宣伝乙と言われるかもしれないけど 
 大学の数学の内容ほとんど忘れてるレベルなんですが、kaggleとかやってみたいです 
 >>778   カーネル関数も理解できてない癖に死ねよ 
  >>779   お前から先に死ねよ、カーネル関数(笑) 
  カーネル関数って、非線形写像の時に出てくるアレか 
 どっちがいいかとか聞いてる奴は自分で学習効率も測定できないアホ 
 ベクトル解析は必要かな 
 どうせ証明なんて自分でしないんだから 
 機械学習に数学はいらない 
   ベクトル解析もいらない。そもそも
>>786 からしてどうみてもベクトル解析理解してないw 
 機械学習の線形代数なんか単なる計算テクニックに過ぎないわけだが学者さんは難しく考えたがるよね 
 >>786   俺もベクトル解析わかってないけど、まあ論文読めるよと言いたかっただけだ 
 だから必要ないんじゃないかなーと思ってるけど   
 でも十年後は分からないよね。なんとなく複素解析とか、フーリエ解析とかやっておいた方が良さそうな予感。やったことないけど。でも音声認識とかまだ実務では中々つかえないけど将来的には食える技術な気がする。直観 
  >>789   例えば問題によっては自分でペナルティ項考えたりしないといけないと思うけど、そういう時にどう計算すればちゃんと解が求まるかとか考えるには線形代数の知識や数値計算のテクニックとかは要るよね 
  ゼロからともう一冊読んだけどディープラーニングは数学はいらないよ。 
 不良などの要因分析によく使われるアルゴリズムを勉強したいのですが、決定木が適しているのかなと感じたのですが、他にはどのようなアルゴリズムがありますか? 
 tensorflow 使うだけなら多変数関数の合成関数の微分だけ知ってりゃ使える。 
 ベンダー企業で研究開発してる奴らなら数学も出来ないと辛いことはあるだろう 
 ゼロから読んでtensorflow始めたけどtensorflowの有り難みがよくわからん 
 あとゼロから読んでも理解力低くてよくわからん 
 データサイエンス講義に下記のような一文があったけど、 
 >>805   それぞれのレイア―を関数に見立てて考えよう   
 レイア―1 …… y=f1(x) 
 レイア―2 …… z=f2(y) 
 レイア―3 …… o=f3(z)   
 f1にまずxが入力されて、f3から出力値oがでてくる 
 さて、いま出力値oを最大値に近づけたい   
 レイアー3だけ考えよう 
 f3()に入るzという引数を、いったん定数と置こう 
 このzに、限りなく0に近い Δz という値を足すと、 
 f3(z+Δz) = f3(z) + g3×Δzと、出力値oがg3×Δzだけ増える   
 レイアー2も 
 yを定数と置いて、Δyをyに足すと、f2(y+Δy)がg2×Δyだけ増える 
  レイアー3も 
 今朝のテレビ朝日系羽鳥慎一モーニングショーで 
 >>807   文脈が持っている特徴というのは学習対象に関する知識に基づくものであって、例えば機械の故障予知ならその機械の性質などとなる 
 つまり対象物に関する知識を持った上で対象物に由来する適切なパラメータを数学的理論に突っ込んでやる必要があるわけで、 
 数学が不要なのではなくむしろ数学は大前提の知識でありそれに加えて対象物特有の知識も必要だということ 
  >>810   その話は知らないけど、例え簡単な回帰式でも人類の発展に貢献するものならノーベル賞もありうるんじゃないの? 
 例えば、ガンの発症率と睡眠時間が相関があるとか。 
 まあイグノーベル賞っぽいけどw 
  読んでみたら、割と凄い論文だった 
 >>816   斜め読みして見たけど、テレビでやってる科学番組みたいな感じなのが残念だな。ああいう番組を見て育つとこういうのが研究なのだと勘違いしてしてしまうのかもしれない。 
  まさか、データ分析だけじゃないだろ? 
 ノーベル賞は選抜された世界中の研究者からの推薦数で決まるのでそこに強いコネがあるか超有名人かでなければどれだけ内容が優れていてもまず取れない 
 研究は手法よりもテーマの選び方のセンスってのはあるんだろうな。 
 テーマの選び方に余地がなく、上から降って来てなんとかしてくれって言われることが多いです。 
 >>820   たまたま飼育していた蚊の傾向が判っただけで 
 同じ遺伝子の蚊だと意味がない気もする 
 日本中世界中の蚊で試すとか 
 違う種類の蚊でも試したのかな 
  >>826   こういうのは検証手法を考案し有意な結果を得たこと自体に意義があるんだよ 
 あとはアース製薬の仕事 
  なるほど 
 >>821   それだと田中耕一さんの受賞がわからない。 
 中村修二さんは目立ってたけど。 
  >>827   論文さらっと読んだ感じだと有意と言えるかどうか分からんけどなあ。 
 まあ追試して検証する必要あるね。 
  島津の田中さんみたいな発見や発明型のノーベル賞はすごいと思うけど、重力波とかニュートリノのカミオカンデとかわかってることを確認する型のノーベル賞は若干落ちる気がする 
 >>831   >重力波とかニュートリノのカミオカンデとかわかってることを確認する型のノーベル賞 
 いや、実験をはじめた時点では、理論が嘘である可能性を織り込んでいるんだよ 
 理論が成立しないかもしれない、と思いながら、それでも、その理論を理解し咀嚼し(普通は、嘘かもしれない理論を学ぶ気はしない)、その理論に載って実験器具を設計する 
 並大抵の覚悟ではできないと思うよ… 
  あとカミオカンデは2回受賞してるけど 
 安心しろ。偉そうに書いてるだけで書いてる人たちが何かしたわけじゃない 
 企業のデータ分析なんかコンサル力がないと完全に社内ニートやで 
 社内ニートで金もらえるならむしろラッキーじゃないか 
 >>839     関西P社? 
 このスレにそんな実力者がいるとは 
  インターンなんてse代わりに使うには教育コストパフォーマンス悪すぎじゃないか 
 そりゃあいい気持ちにしておいて 
 DSの底辺の仕事は、汚い前処理をひたすらやらされるポジだよ 
 P社って、データサイエンティスト集めてるけど、AIに力を入れるわけでも無し、 
 データサイエンティストは、ガチに売上に貢献するネタ見つけたら門外不出扱いになるから、 
 H'とW'の+1はどこから来たのでしょうか? 
 実際に数を入れてみたら近い値が出てきました 
 ちなみにDlの式がないのですが何を表してるのでしょうか?  
 15mの道に木を5m間隔で植えたら15/5+1本植えられる 
 >>852   まあ実際のデータサイエンティストの仕事ってそんなもんだがな。 
 9割が前処理コードと実験環境構築。 
  理学分野じゃないのにサイエンスが入ってるという糞用語つくる時点で営業目的の表現だし 
 バスケット分析とかだろ 
 そんな相関さえ見えればいいようなものなら専門家でなくても誰でも半自動ぐらいでできる 
 機械学習ならpythonとRどっちをマスターすべきかさっさと教えろ 
 >>868   深層学習を中心にやるならpython 
 機械学習全般ならお好きな方を 
  今から新規に始める場合、既存のライブラリなどの資産の有無の縛りがないならpythonにしない理由はない 
 R 面白いじゃん、プログラミングが面倒に感じる人ならいいと思うけどな 
 >>867   だが実際にやるとなるとめんどいんだよ。 
  Rはマニュアル見て動かせばいいだけだから勉強するってほどのことがない 
 株価でも、何十年も相関関係を調べている 
 >>881   「すぐに使える! 業務で実践できる! Pythonによる AI・機械学習・深層学習アプリのつくり方」とかいう如何にも怪しい本買ったよ 
  >>883   ちょっとググったら github にソース置いてあるんだな、今っぽくて悪くはなさそう 
  まずデータをどう集めるのかが大変だよね。 
 だから機械学習を個人でやってもチュートリアル以外実用性のあることはほとんどできない 
 株のファンダでスクリーニングするくらいならそこそこいけるんじゃね 
 >>888   すごく分かる 
 参考書見ながら独学でやってるけど実戦で役に立つイメージが全くわかない 
  個人でやってるったって、 
 >>891   機械学習の大前提となる大量の学習データの入手の難易度が個人か企業などのそこそこ大きく組織かで天と地ほど違う 
 学習データを要しないプログラムであればむしろ個人の能力が大部分なので自分が優秀ならそれでいい 
  >>892   その通りだな 
 データサイエンスにおいて、因果関係の理解されていない相関という科学的に無価値なものにも価値が認められるのは、それが金になる可能性があるから 
 飯食ってウンコ垂れ流すだけの個人が金を生むデータを入手できるかというと、、 
  グーグルもtensorflowを無償公開したときに 
 例えば、カルチュアコンビニエンスクラブ(Tポイント)が持っている 
 どんな属性の人がいつどこで何を買いたがるかはあらゆる小売りが欲しがる情報だろ 
 >>896   エロ本は入り口右側より左側の方が売れる 
  機械学習で何ができないか分かってきた。 
 >>900   >いよいよ終焉か 
 …もう終わってしまうのですか?今からやろうと思っていました 
 そうだ、今までのブームのなかで出た最良の参考書を教えてください 
  0,1のようにクラス分けされたものではなく、連続値の要因分析をしたいと(連続値が高い時に効いているであろう要因など)考えた時に検討されるアルゴリズムはどういうものになるのでしょうか? 
 >>902   それでどう木が関係するのかわかってないが。 
 2つの関係すべてで類似度を計算すれば似通ったのはわかるが。 
  Google が良いのは、関連広告 
 >>905   前まではそういうターゲッティング広告が万能という風潮もあったけど、全くの新規顧客を開拓するのには向いてなくて、今はまたマスの誘導のための広告をどうするかが流行ってきてるってもっぱらの噂だよな 
  検索実績ないユーザーが新規に何を検索したかを調べればいいだけだな 
 そもそも志向性の無い人に、CMを見せて、嗜好を促すという毛色の違うアプローチなのである 
 欲しい商品をちょっと調べたりすると同じジャンルの広告ばかり出るようになるよね 
 単体の決定木の可視化は作成出来たのですが、ランダムフォレストは可視化可能なのでしょうか? 
 文字通り森だから無理 
 >>913   >>914   >>915     ありがとうございます 
 単体の決定木は見れたのでランダムフォレストのような大量の木はどんな風に見えるのか気になったのでやってみたかったのです 
 export_graphvizを使おうとするとエラーが出て、その内容で検索してみると不可能だという記事も見つかりました 
  >>916   多分pythonのsklearn使ってるんだと思うけどできるよ。 
 ただ、見てどうするんだろうとは思う。   
 from sklearn.ensemble import RandomForestClassifier 
 from sklearn.datasets import load_iris 
 from sklearn.tree import export_graphviz   
 X, y = load_iris(return_X_y=True) 
 cls = RandomForestClassifier() 
 cls.fit(X, y)   
 for i, t in enumerate(cls.estimators_): 
   export_graphviz(t, "tree_%02d.dot" % i) 
  >>900   結局、AIブームで儲かったのは 
 エンジニアにGPUを売ったエヌビディアだけというオチだったな   
 エヌビディアのGPU買ってAI開発して儲けた話は一つも聞いたことがない 
  普通に各社webサービス内部などでAI開発の成果が金稼いでるだろ 
 AIで超儲けた! 
 NvidiaのGPU売上はAIブームに乗って2015年以降3倍に増加 
 AIとトレードを結び付けないほうが良い。 
 正しいなら、いかなる手段でも予測できない事になるからAIですら無意味。 
     効率的市場仮説(こうりつてきしじょうかせつ) 
 現時点での株式市場には利用可能なすべての新たな情報が直ちに織り込まれており、超過リターンを得ることはできず、株価の予測は不可能であるという学説である。 
 ランダム・ウォークを説明する考え方になるが、科学的に証明はされてはおらず、確からしいという仮説の域を出ていない。 
 効率的市場仮説の下、株価指数連動型インデックスファンドとETF(上場投資信託)が誕生し、目覚ましく普及してきた。    
https://www.nomura.co.jp/terms/japan/ko/A02426.html   システムが一切、予測できてないのに、儲かるんだったら運でしか無い。 
 ゴールドラッシュから、同じ事の繰り返しだな 
 AIを使った投資で儲かるならグーグルがとっくに手を付けて成功しているはず 
 AIを使っているヘッジファンドが高リターンを出しているのは事実だし、 
 kaggleの電話番号認証のSMSが来ないんだけど 
 GoogleやIBMの最前線からヘッドハントされた精鋭揃い 
 機械学習を使いこなすNetflix社員の年収は5300万円 
 >>935   どこで誰がいつ何を買ったかまではわかるんじゃないの? 
  日本にいる限り、機械学習の論文をスクラッチで実装できるレベルになっても 
 プリファード何とかの人たちは結構もらってると思うけど 
 論文読んで実装するだけで高級もらえる仕事なんて世界中どこにもねえだろ 
 >>939   いわゆるAI産業って基本的に詐欺だから、コンサルできないと金にはならないだろうな 
 実業で実質的な大きな利益を出すのはほぼ不可能でしょ 
  AIが詐欺ってそもそもアホな考えだぞ。 
 >>943   うん。AIすごいね。で、どうやって金を生み出すの? 
 そう聞かれて相手に夢を見せられるような回答ができる? 
 それがコンサル力だよ 
 実際に利益が出るかどうかは問題じゃないし、問題にしてはいけない 
 そこに自ら手を突っ込んでしまうと一気に泥臭くなって単価が下がる 
  たいして売上実績もないのに将来性だけで上場したHEROSの社長が一番AIを上手く活用してるよね 
 >>945   君はもちろん払わないだろうけど、基本的にデータ分析やAI系の商売相手ってITについて素人同然のユーザー企業だからね 
 流行りだからなんかやってみることになったけどよくわかんないんだよね〜予算あるけど何やったらいいのかな〜くらいの意識よ 
 で金取ってPoCして「やれることはやった。期待したほどの効果が出なかったのは、お前らが選定したテーマとデータが悪いから。」で客に押し付けて逃げる 
 それがAIビジネス 
  データ突っ込んだら必要な前処理と 
 1銘柄の株価上下を予測するのが精度はでなくても、 
 >「やれることはやった。期待したほどの効果が出なかったのは、お前らが選定したテーマとデータが悪いから。」で客に押し付けて逃げる  
 自社事業ならそれが社内の部門同士の話に置き換わるだけだよ 
 >>948   DataRobotがそれできるんじゃないの? 
  >949 
 株やるならインデックスの対象銘柄をファンダメンタルで半分くらいに絞って、中期くらいで分散投資するのはどうだろう 
 今更ながらアルファ碁とアルファゼロの論文読んでるけど、 
 >>956   そこは俺も引っかかる。 
 確かモンテカルロサーチはAI将棋やってる人達が色々試したけどあんまり結果出なかったって話だと思った。 
 というのも将棋は囲碁と違って良い手、悪い手の差が激しいからより深いサーチが有効って 
 ゲームだから。 
  >>947   てかユーザーはユーザーで普通にまともにデータを用意できないというか、 
 そもそもスキーマーがぶっ壊れまくってるのを押し付けてくるユーザーも普通にいて 
 機械学習以前の問題。   
 はっきり言ってどっちもどっちで腐りまくってんだよ。 
  chainerって結構お手軽なんじゃね? 
 >>921   100%事実でしょ、特に仮想通貨がやばい 
 単純なsdf(FXと現物の価格乖離を防ぐシステム)のBOT+AIで 
 売り板や買い板出してる奴が機械か人間かを 
 出してる板の枚数と取引のキャンセルスピードなんかで判別できる 
 成行か指値かも同様に判別できて、sdfの境界を利用して取引命令の更新が遅い人間から 
 一気に証拠金を搾り取る事が可能になる 
 一度そいつから絞り取ったら、大資本のAIは基本的にそいつがロスカットされるまで相場を急変はさせない   
 いまFX(特に仮想通貨の)をやる奴は博打どころかほぼAIに証拠金巻き上げられるってことを理解してやるべき 
 例外は直後のニュース要素のみだからな 
  なんで日本って投資後進国って言われてるのにFXや仮想通貨は活発なんだろう 
 仮想通貨の利益の源泉は 
 違うスレで答え貰えないのでちょっと話ずれてるかもしれないですがここで質問させてください 
 素直に行列の足し算を使って 
 すいません。 
 昨晩サイエンスZEROで内視鏡のガン検診で人間の医者より精度良いって言ってたな 
 とりあえず何も考えずxgboostにでも突っ込んどけ。 
 高卒低学歴だけど機械学習の勉強始めて数学とか分からないまま参考書進めてたけど出てくる結果が全然分からなくて統計の勉強も始めた 
 実戦データマイニング: AIによる株と為替の予測 単行本 – 2018/6/20 
 https://www.amazon.co.jp/dp/4274222373/     この本どうなのだろう? 
 なんかユーザーレビューの評価が極端に悪いのだが 
 AIに、株やFXは向いてないとおもってるが。 
 実践以前に株やFXで、AIが有効である可能性がある理屈、理論を考えるべき。 
 ファンダメンタルなら有効でしょ 
 株は短期情報戦になったらインサイダー最強なのでムリ 
 人間のトレーダーは、絶対に、ダウ平均・日経225などの平均株価に勝てない。 
 新興国通貨も結構なギャンブルに思えるけどね 
 >>976   わろた 
 ここまでひどいのも珍しいが 
 きっとひどいんだろ 
  >>976   これはすごいw   
 カスタマーレビュー 
 星1つ  100% 
  そのわりに古本高いね 
 もうかりゃだまって実行するだろ。本なんか書くよりはるかに儲かるだろう。 
 >>987   本で儲かる手法を公開すれば同じシステムに儲けが持って行かれるしな。 
  投資関係のテクニックや新理論に対して「儲かるなら公開せず発案者が独占するだろ」とよく言われるが、 
 理想は買うだけ買って読まれない本 
 大企業は数学上の重要な発見とかを企業秘密にしているらしいね。 
 バフェットみたいに超有名になれば自己実現的に儲かる気もするけど 
 >大資本を持たない場合は大して稼げないので公開してしまって業界内有名人になってセミナーや書籍等で稼ぐ方が効率的だったりする  
 明地文男の3点チャージ投資法は、 
ID:q6ZoTdpo0のレス一覧:  >>420   情報理論は場合の数の加法性の仮定が前提にあるから使えない。 
 後者の記事は条件が限定的過ぎて使えない 
  機械学習のブラックボックス化された関数うんぬんというけど 
 機械学習ブームがここまで盛り上がるなど予想されていなかったので基礎研究からやってる企業を除いて機械学習の専門家を雇っている企業などほとんどない 
 だとしたら、アセンブラ出来ない奴、デジタル回路が組めない奴、はみんな基礎が分かってないから 
 富士通のZinraiとか、金かけて、宣伝しているけど、 
 大手企業つっても零細に丸投げしたの納品したりするから出来がまちまちなんだよ 
 東芝、NEC、オムロン、富士通、日立 
 日本のメーカーは組織が疲労している P ドラッカー 
 AIで会社経営を立て直すには過去の大量の成功・失敗の経営情報が詳細な内部情報とセットで必要であり 
 BIやっても 
 機械学習って、統計学の横に色んなジャンルが派生的に発展していて 
 派生部分しか理解していない人は流行りが終了すれば新しい流行りを1から勉強し直す 
 大学程度の数学と物理をやっとけ。できるなら修士レベル。後は後からどうにでもなる。 
 あとからどうにでもなるなら、高卒でもいいだろ。 
 >>451   勉強などやる気さえあれば誰でもできるがそもそも高卒という時点で機械学習エンジニアとしての採用はほぼ閉ざされるから 
 企業のリソース使わず自力で機械学習でビジネス起こす当てがあるなら話は別だが 
  数理工学、数学、統計 
 数学・物理の出身者は、物事を抽象化して捉えるセンスが群を抜いてる。 
 >>456   それほぼ一緒だとおもうが。たとえば、不完全性定理とか数学的抽象度が高いし論理的だろ。       
 不完全性定理    
 数学を基盤にし、証明を積み重ねていけば、 
 いつかは「世界のすべての問題を解決するひとつの理論体系」「世界の真理」に到達できるのではないかと信じられていた。   
 さて、1930年頃のこと。 
 数学界の巨匠ヒルベルトは「数学理論には矛盾は一切無く、どんな問題でも真偽の判定が可能であること」 
 を完全に証明しようと、全数学者に一致協力するように呼びかけた。 
 これは「ヒルベルトプログラム」と呼ばれ、数学の論理的な完成を目指す一大プロジェクトとして、当時世界中から注目を集めた。   
 そこへ、若きゲーテルがやってきて、「数学理論は不完全であり、決して完全にはなりえないこと」 
 を数学的に証明してしまったから、さあ大変。   
 ゲーデルの不完全性定理とは以下のようなものだった。 
 1)第1不完全性原理 
 「ある矛盾の無い理論体系の中に、肯定も否定もできない証明不可能な命題が、必ず存在する」 
 2)第2不完全性原理 
 「ある理論体系に矛盾が無いとしても、その理論体系は自分自身に矛盾が無いことを、その理論体系の中で証明できない」    
http://noexit.jp/tn/doc/fukanzen.html    >>454   実は機械学習のエンジニアの求人は学歴不問のところが多い 
 バイトから入るという裏技もあるから、やる気さえあれば高卒でも余裕でなれる   
 独学→バイト→正社員→お金を貯めて研究者   
 理論的には、無理ではない 
  あと自分は絶対にやらないけど 
 学歴不問って職務経歴だけ見ますって意味だよ。 
 >>463   >>あと物理と機械工学は別だから。  
 そこらへん詳しくないから適当書いたスマン   
 でもバイトで職務経験つけて、そのまま正社員になった奴はうちの会社に一人いるぞ 
 年齢的に、院試を受ければ、研究者にもなれるんじゃないかな 
  >>451   高卒には越えられない壁がある 
 よほど貧乏で大学行けなかったとかでなければ 
 理解できる頭あれば大学卒業(あるいは修士以上)してるはずで 
 高卒が高卒たる所以 
  言うか! 
 >>466   毒親もな。連帯保証人無しでは学校も行けない。入院も出来ない。 
  中高生の時に虐待を受けていたからまともな精神状態で勉強に集中できなかったとか、 
 そろそろ、wikiみたいな「集合知」って機械学習で置換できちゃうんじゃないかな 
 >>471   機械学習は、所詮膨大な過去を根拠にしているだけだから、新しい知恵を生み出すことはできない 
  >>473   何事かに対して、どういったジャンルに属する話かと判断して、それを総括するフォーマットを 
 類似記事から引用する学習は可能だと思う 
 現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ 
 そこそこのマイナージャンルでも、テキストとして情報化されてきている 
 「データ群の前半に集中する情報を要約して『概要』とする」ことや、「年代と頻出で年表的に 
 フォーマットを形成する」のも可能だと思う 
 というか、Wikiの各記事においてすでにこういう「情報をまとめる上での構成」ができているんだから 
 それ自体を機械学習できるはずなんだよ 
  >>474   >現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ 
 一言で「似ている」というけれども、「犬と似ている」「猫と似ている」は現状の深層学習で実現できるとしても、 
 「似ているもの同士をまとめる」はまた別ではないか? 
 このタイプにおける教師データは成立するのだろうか? 
  >>475   「犬と似ている」と「猫と似ている」は、フォーマットとしてほぼ同じ語り口で記事になってると思う 
 同じようなフォーマットの記事から、頻出単語や構文を教師データとして、関連する情報として 
 拾うのは単純に機械学習の範囲だと思うけどなぁ 
 「同じような単語を同じような語り口で記述している記事」が教師データなわけで 
  >>476   >「同じような単語を同じような語り口で記述している記事」が教師データ 
 メタな構造そのものを教師データにできるものかな? 
  >>477   むしろそういう「言及」をデータとして扱わないと機械学習の有効性が意味を持たないと思うよ 
 「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある 
 それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない 
  >>478   >それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない 
 なるほど!   
 >「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある 
 二項関係から三項関係への進化は、今は出来ていないんじゃないかな? 
  Googleが猫の画像を判別させる人工知能を作るだけのために大量の猫画像を必要としたように、 
 Googleが画像から猫を判断させたのは、教師なしのニューラルネットワークによる学習だよ 
 高卒派遣で機械設計やっていますが3年やっても年収300がやっとなので機械学習とPythonを学んで年収500万ぐらいになりたいです 
 付け焼刃の知識は、年収5000万overの人が作った機械学習自動化ツールに置き換えられそうだ。 
 >>487   pythonって日本では需要が無いのでは。 
  日本の大企業で機械学習やってますと言ってるところはどういう環境で開発してるんだろう? 
 自動制御システムを機械学習という人たちもいるからな 
 >>485   マセマみたいな簡単な参考書で、線形代数、微分積分、統計学の知識を大学一年生レベルまで習得 
 これなら分かる最適化数学、言語処理のための機械学習入門、はじパタ本を読む 
 プログラミングは、書籍だけで勉強する場合、pythonの参考書を最低五冊 
 また、英語を勉強して、論文を読めるようにするように   
 DB、クラウドの知識もほしいし、前処理についても独学しておいた方が採用されやすいだろう 
 カグルにもチャレンジした方がいいかなあ 
 あと絶対むずかしい参考書に手を出すな! 絶対だぞ! 
  むかしから日本は共有知を軽視してきただろ 
 >>492   ご丁寧にありがとうございます 
 自宅学習がまるでできないのでまずは基本情報を取って自信をつけてみます 
  「〇〇入門」は山ほどあるのにその先を教えるものになると日本語の情報は激減するよな 
 どうせ、価値ある一次情報は国外からしか出ないから、まず、英語で良い。 
   新井女史が人工知能の最高峰な国、Japan。  
https://booklive.jp/review/list/title_id/493315/vol_no/001   >>469    同意。そこらへんのことを本当に知らない人多すぎ。 
  まあぶっちゃけ、自分が思い浮かぶ程度の手法は、エクセル先生でできちゃうし、実務上はそれをわざわざRやらPythonやらでやるインセンティブもないわけで。 
 ロジスティック回帰とかそこら辺になりゃ意味あるがあまり機会がない。やらんでなんとなく過ごしてる自分が悪いだけ疑惑はあるけどw    
https://twitter.com/ikasanma/status/1007588876251160582   流石にEXCELとPythonは使い道が違いすぎる 
 >>501   背景の緑のマトリックスみたいな画像がpython関係なくてダサすぎる 
  Excelは昔から統計分析でも使われてきたし変ではない。 
 データ量肥大化でpython処理が重くなるというならEXCELの場合重くなるどころか開くことすらできなくなるけどね 
 Excel推しの人ってみんな言ってることがどこかズレてる印象 
 というか、EXCELしか使えないからそれしか選択肢ないんだろう 
 まず、エキスパートシステムは部分的には成功しているぞ 
 >>512   >株式予測は、データが増えれば増えるほど成功する 
 株価が上昇するか、それともアンダーウェートか、それだけでも判定できるのなら大いに役に立ちます! 
 勝率はどれくらいですか? 
  株価予測は簡単じゃねえわ 
 株価は、あらゆる情報を用いたとしても、日経平均などの平均値を超えられないという、予想が信じられてるんだろ。 
 株価予測が可能かどうかに関する理論・仮説はこれだ。 
 自分の考えは、株価予測は不可能という効率的市場仮説はほぼ正しいとおもっていて。 
 すまんスレチだが助けてくれ 
 >>519   オラクルのサポート契約結べばすぐ解決するよ! 
  >>501   FRBのモデルはJuliaで作られているのにな。日銀はmaltab。pythonすらでない。 
  >>516   考えてみたところ、日経平均やNYダウや為替レートなどいろいろな要素が多く入ってる程、予測できない一方で。 
 これに反対してるウォーレン・バフェットの理屈も理解できるな。 
 特に社長個人に注目して、信念とか哲学とか聞いてみるとか、会社見学して社員教育や社員の熱意、やる気を確認するなどすれば、 
 いずれ(平均以上に)成長できる会社を発見するのはできそうだからな。 
 そうなると株価予測というより成功者を見つける事になってくるが、これは同一でいいのか。 
  これが、全てな気がする。 
 アメリカのインフレとその後の崩壊に既に仕込んであるのだろうな大手は 
 データの性質をよく知ってるほど強い 
 株価に影響を与える全てのパラメータがあればって 
 確かに、原理的にあらゆる情報があれば予測できるとしても、現実的にはオープンにされたデータのみから予測できなければ合法に使えないな 
 株価予想、デイトレード的なものに機械学習を導入するだけなら 
 「こういうデータがこう動いたら株価はこうなる」みたいに明示できるなら機械学習なんて不要だろ 
 >>519 だがwindows10でJDKをダウンロード、ダウンロード後保存されたJDKを 
 開こうとしても上記のような文が出てきて開けない 
 ちなみにウィルソフトは一旦OFFにしたり、オフラインでのダウンロードもしたし 
 Edge以外でfirefoxを使ったりしてもダメだった 
  パターン認識と機械学習(PRML)の輪読資料を公開 
 2018年06月18日  soneoka education, news, readings 
 C.M.ビショップ他著「パターン認識と機械学習」の輪読資料の一覧を当サイトで公開しました。 
 詳細はこちらから    
http://deeplearning.jp/deep-learning-day18-2/   実データで学ぶ人工知能講座(AIデータフロンティアコース) 
 http://learn-ai.org/about     2018-06-18  
 平成30年度後期の募集につきましては講座について(応募方法)に掲載しました。 
 募集期間は7/1(日)〜31(火)となっています。 
 >>536   SUGEEEEEEEEEEEEEEEEEE!!! 
 2chなんてくだらないものを見ていて、本当によかった 
  >>542   自分は数学専攻だけど雑で読みにくい 
 文系や工学系の人が雰囲気を味わうのに手頃なんだろ 
  >>547   たぶん話の文脈を読めてない 
 工学レベルの数学で十分だろという意味だろ 
  任意精度で最小二乗フィットをやろうとしてるのですけど、Mathematica以外の選択肢は 
 >>551   leave-one-out 交差検証での(最小二乗フィットの)限界(何次元迄だいじょうぶか)を 
 調べたくて…。 
 でも、(元データの精度はどうなのって点は置いといて)最小二乗フィットの結果に疑義 
 が起きない様に、106ビット相当の精度の最小二乗フィットでleave-one-out 交差検証すると、 
 Wolfram Programming LabのFree planだと8次が限界ですた。   
 1個外したデータでFit[]して、外したやつで誤差を計算して2乗して和を取ってるのですけど、 
 何かズルする手段があったりするのでしょうか? 
  「ここ迄やった」変数を用意して、中間結果を書き込んでやれば、 
 機械学習に興味ある新参者ですがマスター教えてください。パーセプトロンの説明だと入力値と重みの計算値を1か0で出すと思うのですが、多層ニューラルネットワークの場合は計算値を活性化関数で近似してその値を次の層の入力値にする認識でokですか? 
 何に最少事情でフィットさせるのか分からないことには何とも。 
 >>555   偽術者を自任してますw    
>>559 >>560 
 500点位の(x,y)のデータ(単調増加)    
>>561   Mathematicaで 
 xl = x^Range[0, 2] /* = {1, x, x^2} */ 
 Fit[data, xl, x] 
 みたいな感じ(たぶん厳密解法)。  
http://reference.wolfram.com/language/ref/Fit.html    >>562   2次多項式にフィッティングさせてるのね。 
 行列計算で一発で厳密解出るよ。 
 numpy.polyfit 使えばすぐ計算できる。 
  あと、leave one outが重い場合はk-fold cross validationする。 
 みんなは普段どの手法をメインに使ってるの? 
 すまん。Cで書いていたわ 
 >>565   自分がコンサル的な立場でないならそのまま客の要求する手法使えばいい 
 それで精度が悪くなっても適切にプログラミングされているのならその責任は客にある 
 逆にコンサルとしての働きも求められる立場なら何が最適なのか説明して説得できなければ駄目 
  展示会で見たdatarobotってツールが忘れられない 
 >>572   アセンブラならともかくマシンコードはオフセット計算が 
 面倒でな   
 ef 00 00 
 c3 
  >>568   DL(方法論)の指定をしてくる時点で、目的は、結果ではなく、 
 流行りのAI技術に投資しましたというパフォーマンスでは? 
  法律的な相談になると思うのですが、 
 なんか学習データの権利とか色々あったな。なんだっけ 
 他人の著作物に似たら、ダメ! 
 大小の3つの○のスタンプを投げてたまたまミッキーになっても誰も罰せられないように 
 >>575 は、著作権じゃなく、商標権で、結果的でも似たらアウト。   
 既存の商標シンボルと類似性が高いものが生成されたら、 
 自動削除するAIを併用すれば良い。 
 知的財産権違反の自動検閲は、Google Playでも、とっくの昔からやってるし 
  元データが大体x∈[0,10]なので、xではなくてx-5の多項式で近似してみたら 
 >>583   スレチと思ってるのは君だけ 
 ここはゆるい雑談スレ
>>1   それが嫌なら黙って他所へ行ってどうぞ 
  >>3   誤差逆伝播法と勾配降下法って役割いっしょなの? 
 初心者すぎてよくわからん 
  皆さん機械学習やディープラーニングはどのように勉強を進められましたか? 
 このスレは世界の頂点に立つ研究者ばかりだから素人さんへのアドバイスは難しい 
 PRML not recommended. Just kidding!!! 
 まぁ以前に比べれば過疎ったよね。月一で見れば十分だw 
 もう機械学習ブームは去った。 
 みんな今の給与水準落としたくないからライバルを支援したくない 
 >>604   別に日本のために生きているわけでも働いているわけでもないので日本オワタだろうが知ったことではない 
 そんなこと気にするより自分の能力高めて、仮に日本沈没しても別の場所でも生きていけるようにしておく方がよっぽど賢い 
  ディープラーニング学びたいのですが 
 ニュートラルネットワークについて 
 これ結局は一次関数になるのでこんな複雑に分けれないと思うんですけど?  
 会社でtensorflor使ってる所ってestimator使ってるの? 
 機械学習に向けて高校数学をやり直しています 
 統計学に数学は必要だけど機械学習に数学は必要ありません 
 統計学と機械学習は、どういう関係性・違いがあるのでしょうか? 
 >
>>620   統計学と機械学習の線引きはちょっとわかりません. 
 私は,須山敦志さんのベイズ推論による機械学習入門を読んでからPRMLを読んでいます. 
 ただ,PRMLは,必要になったときに必要な知識をかいつまむくらいの使い方がいいと思います. 
 また,2章のガウス分布の部分をしっかり読めば,ガウス分布の結合分布や条件付き分布などの計算になれることができると思います. 
 そもそも機械学習なんて名前の学習分野がない。 
 >>自説?? 
 後進国をみんなで認めて 
 機械学習なんて統計数理の一つの応用というか枝葉に過ぎないからな 
 機械学習すっぞ!!と意気込んで構築手順調べたら、ゲーミングPCクラスのスペックが必要ってことに気付かされて泣きそう。 
 tensorflowのサンプルを二時間動かして落ちる???メモリ不足でござった{END} 
 ワイの貧弱PCじゃNIC学習で3日掛かる 
 政府は、「AI人材の育成」をとか言って、予算を割いているけど、ばら撒き先は、学校。 
   奴らが育つのを待っていれば、日本は手遅れになるから、  
>>637 のような奴を救済してやれば良いのに 
 そもそも機械学習の仕組み自体が人間の脳を理論的に再現することを放棄してマシンパワーで無理矢理解決してやれ、というものなので 
 >>638   高校生までに大学院修士課程までの数学を終わらせろ。 
  >>646   いくら上がる下がる50%で当てると儲かるんじゃない。 
  50%で正解+イクラかの情報があれば俺でも儲けられる。 
 >>646 に書いてある日経平均騰落予想AI「F-Trader」っていうもののことなら53.8%と書いてるぞ 
 50%オーバーってことは放置するだけで自動的に儲かるってことだからな 
  ある程度のオーバーフィッティングは免れ得ないだろうから 
 ディープラーニングに必要な線形代数って行列計算のみ? 
 >>650   騰落幅が当たらないと99%騰落が当たっても儲からないことはある。逆も真だが。 
  当んなくて儲からないから 
 まあ本当に的中するなら他人が同じことしたら自分の取り分減るだけだしね 
 AI開発者で一番の高給取りはヘッジファンドで株の売買や投資をやっているわけだから、 
 AIファンドが他のファンドに対して有意に差をつけてるかっていうとそうでもないでしょ 
   と書いて、調べてみたら実はAIヘッジファンドの平均リターンがヘッジファンド全体の平均回ってた  
 ああなるほど 
 attentionの項目は読んでみたいけどそれだけのためならいらないなぁ 
 データを学習させますって当たり前のように書いてあって、いっぱい読み込んだりしてるんだなーくらいのイメージして資料読んでたんだけどそもそも学習ってなにやってるの? 
 画像と答えの組み合わせを丸暗記してるわけじゃないから 
 2次元の2クラス分類のデータで可視化すると良くわかるが、境界がハッキリしてなくて混じってる場合が多い。 
 c++でおすすめの参考書ありますか? 
 >>675   Deep Belief Nets in C++ and CUDA C: Volume 1: Restricted Boltzmann Machines and Supervised Feedforward Networks  
  by Timothy Masters  
 Link: 
http://a.co/4gIcuGN    機械学習を標榜しておいてpythonではなく 
 >>682   pythonよりそっちの方が人口多いからとにかくプログラマー集めて教育してpython使えるようにするつもりなんじゃないか? 
  求人広告の文言なんて人事部やら広告屋やらが間に入ってることくらい分からないのかなぁw 
 環境で言語決まってるからどうにかしてくれってことでは 
 >>684   ぺちぱーやぶいばが来てもうざいから 
 魔除けで書いてあるんだろ 
  VB.Net使えるのにC#使えません、なんて人はあまりまともなプログラマーではない可能性高いから相手にしたくないけどな 
 VB.Net使えるのにC#使えません 
 VB.Net使えてもC#使えない人なら応募要項に反してるので首に出来るから都合がいい 
 応用が必要なAIの開発を請け負っている所って、 
 キラーパスできる下請け持ってる会社って何処?俺も下請けに超絶スルーしたい。ちょwQBKみたいな。 
 Pythonでプロトタイピングして、モデルができたらプロダクションはJavaとかC#で組み込むんだよ 
 Deep Learningの輪読資料を公開 
  2018年07月12日  soneoka education, news 
 Ian Goodfellow 他著「Deep Learning」の輪読資料の一覧を当サイトで公開しました。 
 詳細はこちらから    
http://deeplearning.jp/seminar-2/#1515565927378-9a11fdc4-798a   【裏切られた、安保″】 イラン核施設  ←(2010,11)―<サイバー攻撃>―(2011,03)→  福島原発 http://2chb.net/r/liveplus/1531447465/l50   レス:1-200  201-400  401-600  601-800  801-1000  ALL  
このスレへの固定リンク: http://5chb.net/r/tech/1520586585/ ヒント: http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ  TOPへ   
 
	  
全掲示板一覧  この掲示板へ  人気スレ  | 
	Youtube  動画  
	>50  
	>100  
	>200  
	>300  
	>500  
	>1000枚  
	新着画像 ↓「【統計分析】機械学習・データマイニング19 	YouTube動画>2本 ->画像>5枚 」 を見た人も見ています:・【統計分析】機械学習・データマイニング29  【統計分析】機械学習・データマイニング25 	 【統計分析】機械学習・データマイニング24 	 【統計分析】機械学習・データマイニング17 	 【統計分析】機械学習・データマイニング6  【統計分析】機械学習・データマイニング30  【統計分析】機械学習・データマイニング27  【統計分析】機械学習・データマイニング26 	 【統計分析】機械学習・データマイニング21 	 【統計分析】機械学習・データマイニング34  (30) 【機械学習】GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法が登場、一体どんな手法なのか?  [oops★] 人工知能 機械学習 深層学習 (ディープラーニング) 総合スレッド  【機械学習】ソニーがディープラーニング用“コアライブラリ”をオープンソース化。Pythonで利用可能、GPU実行も 	 AI、ビッグデータ、機械学習のエンジニアは絶対増え続けてるはずなのに俺の仕事楽にならんのだが?  人工知能ディープラーニング機械学習の数学 ★3  (346) 【IT】Google、プログラミング不要で“機械学習”試せるサイト公開 	 【機械学習】Airbnbが社内にデータサイエンス大学を開校、非技術系一般社員も対象 	 【AI】FacebookがAIによる地図データ生成、機械学習で衛星画像から道路の形を抽出 	 【IT】AWS、機械学習機能を活用したデータセキュリティサービス「Macie」発表  【物理】東大、ナノダイヤモンドと機械学習による高精度磁場イメージングを実現  [すらいむ★] 【IT】「Amazon CodeGuru」発表。機械学習したコンピュータが自動でコードレビュー 	 【グーグル】Googleが第2世代TPUを発表、処理性能は180TFLOPS  機械学習向けプロセッサの新版 	 東北大、量子コンピュータ「D-Wave 2000Q」を日本で初めてクラウド利用すると発表!最適化問題や機械学習に使うらしい  【機械学習】株価予測 	 機械学習教えてください  YObit マイニング 	 JPYマイニング総合スレ 	 AI、機械学習の教材って何使った?  マイニング専用 ツルハシ2本目  マイニング質問スレ  Part.2 	 機械学習を活用して個人でできるビジネスなんかある? 	 機械学習とかやってる大学生なんだけど 	 仮想通貨をマイニングしてるひきこもり  【IT】機械学習の波、メモリーへも 	 マイニング情報交換スレ 4ブロック目 	 【初心者用】マイニング情報交換スレ7 	 【祝 上場】Pi Coin【マイニング】  【初心者用】マイニング情報交換スレ48 	 【初心者用】マイニング情報交換スレ32 	 【初心者用】マイニング情報交換スレ37 	 【CPU/GPU】マイニング情報交換スレ72 	 【初心者用】マイニング情報交換スレ18 	 【CPU/GPU】マイニング情報交換スレ76 	 【初心者用】マイニング情報交換スレ21 	 【CPU/GPU】マイニング情報交換スレ60 	 【PC】米AMDがGPUボード「Radeon Vega Frontier Edition」発表、機械学習でも性能発揮  仮想通貨クラウドマイニングiMining 	 マインド荒し●千葉市川警察★カンニング 	 人工知能・機械学習のスレッド@数学板 	 【IT】機械学習の天才技術者がNECを選んだワケ 	 機械学習をかじっとるけど今回のpixiv問題に質問ある?   Windows 10 機械学習について語るスレ Pt.1 	 【マターリ】マイニング雑談スレ Part.83  【マターリ】マイニング雑談スレ Part.85  【マターリ】マイニング雑談スレ メンヘラ出禁 Part.210  【マターリ】マイニング雑談スレ Part.46  【マターリ】マイニング雑談スレ Part.190  【マターリ】マイニング雑談スレ Part.30  【マターリ】マイニング雑談スレ Part.63  【マターリ】マイニング雑談スレ Part.20  【マターリ】マイニング雑談スレ Part.199  【マターリ】マイニング雑談スレ Part.10  【マターリ】マイニング雑談スレ Part.135  【マターリ】マイニング雑談スレ Part.50   
  
    
  
 
 14:40:21 up 9 days,  5:02,  2 users,  load average: 83.64, 81.11, 78.16
in 0.061968088150024 sec
@[email protected]  on 110103