◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【統計分析】機械学習・データマイニング24 YouTube動画>2本 ->画像>5枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/tech/1556674785/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
機械学習とデータマイニングについて語れ若人
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/ Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018 2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76 ■前スレ
【統計分析】機械学習・データマイニング23
http://2chb.net/r/tech/1551352040/ VIPQ2_EXTDAT: default:vvvvvv:1000:512:----: EXT was configured
AIと一口に言ってもそこには大きく以下の3種類の仕事が存在する 2と3はブームが過ぎても使い道があるが、1しかできない人はマジで使い道がなくなる 1.誰でも使えるお手軽AI構築ソフトをポチポチするだけの簡単なお仕事 2.AIの開発環境や実行環境を(主にクラウド環境として)構築する仕事 3.AIというよりもより具体的に(今であれば深層学習などの)数学的側面を理解して適切なモデルを構築する仕事
1は、データの更新に合わせてモデルをポチポチ再構築するお仕事として残ったりしそう CAEのメッシュ切りみたいに
AIってモデルはかんたんに作れるけど其の周辺のシステムを構築する仕事がメインだと思う
勉強進まない 2時間やって参考書10ページも進まないとか… 連休中に一冊終わらせようと思ったけど無理だな…
>>10 数秒で実行出来る内容なんだけどね…
情けない話だわ
ネットワークモデルの考案は最も難しく研究者が行うことだ 技術者は適切なモデル選定して学習させるだけ
>>9 何を思ったか、私は受験用英単語集(2000語レベル)を買って頭から一日50 words (ただし自分の知らないものに絞る)ずつやって GW 中に 2000 語レベルを仕上げるべく、他のことは放擲してまで熱中しています
今 1000 語を超えましたが、GW の残りの半分で全部仕上げるためにはペースアップしないといけない、と考え始めています
とりあえず一日 100 words、使う時間も倍にする予定です
https://www.amazon.co.jp/gp/product/4791624076/ CAEでメッシュ切るのも未だ完全自動じゃあないよ すべてコンピュータに任せればおかしなメッシュが出来るからチェックが必要
>>15 仕事で使ってるけど、商用ソフトでは完全自動になってるよ。
メッシュがおかしくなることはほぼ無い。
>>14 偉いなぁ
2、3時間だらだらやってNetflixに逃げる俺とは大違いだ
>>18 何か意味のあることをしたい、と思っただけです、英語がいくつになっても必要であることはこの業界であればいつも痛感するのです
こういう馬鹿みたいな訓練も、ときにはお勧めです、次のお盆か正月やすみにでもいかかでしょうか?
そもそも汎用人工知能とやらを本気で求めている人ってどれだけいるの? 会話に反応してくれるのはSiriやPepperがもう少し賢くなれば十分だし 金儲けのためなら汎用ではなく特定用途に特化したものがあればいいし
汎用人工知能ってつまり人間の仕事を100%肩代わりさせることができるってことだよな 人工知能に人間が生かされる時代がいずれくるんだろな
>>26 それは人間の能力を低く見すぎではないかと
今の AI は過去の延長線上でしかモノを考えません(傑出しているのは将棋とか囲碁くらい)が、人間はある日突然、これまでに存在しなかったものを実現化・実在化しますよね
>>27 それは一握りの天才だけじゃない?
大多数の人間はAIと同じく過去の延長線上でしか考えられない。
ていうか延長すら出来ない人がほとんど。
画像認識だって人の目視よりAIの方が精度高い場合もあるみたいだし、囲碁将棋だけってのはちょっと情報古くないかな。
実際自分も仕事で使ってるけど、回帰で高精度叩き出してるよ。
人間がコンピューターの使い方を学習しだした気がするよ Excel滅びろ
>>29 >画像認識だって人の目視よりAIの方が精度高い場合もある
教師あり学習の場合は、シベリアンハスキーとエスキモー犬を分別するとか、とかはうまくいっていますよね
個人的に感動したのは「超解像度」や CycleGANです、それは多いに認めています
ただ、
>>28 1000年たっても「心」や知性の実現=機械証明(証明支援ではない)は無理だと思っています
factorization machinesの論文を出した人、一時期日本にいたのね なんでそういう人材を手放すかなあ
そんな高度な人材は日本の企業・組織には使いこなせない その分野の発展にとっても本人にとっても出ていくのが最適解
日本はIT土方とかいう表現が生まれるくらいSEがブラック扱いされてたのが良くない
pytorch難しいんじゃ… こんな難しいの人気にしてはいけない😡
心や知性は機械的なアルゴリズムでは実現不可能って思ってる人って人間の脳をどういう仕組みで動いてると思ってんだろ 霊的な何かとか物理の常識を超越した現象かなにかだと思ってるのかな
俺今お腹すいてるけど何食べたいか分からないんだよね そもそもお腹空いてるのかすら疑問なんだけどそういうのもいつか理解してくれるアルゴリズムも出来るのかな
心や魂なんて無いのにな。 脳を階差機関と交換してない野蛮人はこれだから困る。
>>36 それらしいものが出来たとしても確かめる術がない
>>38 そんなことを言っているようでは今の若い者に期待はできないですな
「心」や「魂」に一対一に対応する実体を求めているわけではないのですよ
むしろ、我々人間が「心」や「魂」を存在するものとして扱っている事実に注目することが重要なんです
我々人間が、こいつには「心」や「魂」が存在するに違いない、と錯覚させるだけの「なにものか」を装備することが必要かつ十分なんです
>>36 物理の常識では心や知性をどう解釈するの?
>>43 お前自分の書いた文章読んでみろよ、アホ?
記憶がどうやって保存されてるかも分かってないと思ったけど
完全解明には至ってないけど 少しずつ明らかにはなっているかと
猫飼ってたけど奴にはには自我があると思ったよ。 あざとくないアイボはよはよ
彼らなりの評価関数はあるだろうから 最適化を目指す行動を観察すれば 自我があるように見えるかもね
シナプスの最小単位回路が六方格子状ってのは解明されたから その機能が積み重なって自我ができてるんだろうね、わからんけど
>>44 読んだけど何一つ矛盾が見つからないけどなんかある?
>>40 情報系進もうとする学生が減るじゃん
アメリカは金持ちで格好いいシリコンバレー
日本はIT土方でブラック生活
そりゃ差がつくでしょ
そんなにシリコンバレーがいいなら外資行けばいいだけだし何ならシリコンバレーに行ってしまってもいい 日本企業に就職する必要などどこにもない
その辺に詳しくない高校生が大学の学部選択するときの話をしてるんだけどね 自分は別の分野で博士とったけどSEのイメージがもうちょっとよかったら情報系行ってたかもしれないし
>>51 馬鹿はお前だ
ひとまず汎用性のある人工知能は実現可能なんだろうけどお前には関係のない話って事だな
おっさん世代だと情報系はバカが行く、数物系こそ至高だったぞい
>>57 なんでこいつ切れてんだ?
なんか嫌なことでもあったのか?
人工知能の授業で先生に怒られたとか?
あ、お前中卒だから関係ないか
人工知能同士が喧嘩しているとは、この時まだ誰も気づいていなかったのである
日本のITも土方でやってける時代も終わってきてる これからはどうなるかな
いまのところ人間どころかネズミほどの知能も実現できてないんだよなぁ
ん? すでに7割方の人間の能力はすでに上回っているわけだが コストは人間を雇った方が安いので、人間が仕事をしていることが多いが
汎用知能を実現させている人間の脳って凄いよね。 脳は手の平に乗る程の大きさなのに、解明されていないとか不思議。
Googleの場合、雇用はPh.D取得組(平均初任給20万ドル)とNo Degree組(初任給上限1万)の2つのグループに2極化が進行している。 東大とか日本の有名大学の理系修士の採用であっても、No Degree組に入ると初任給は大体800万円くらいになる。 Googleはこの2極化戦略を更に進め、No DegreeをRed Badgeと呼ばれる派遣社員で置き換える動きも進めている。 派遣社員で採用となった場合は、1年契約で、最大契約期間は2年で3年以上の契約更新はない。 というと、Red Badgeの条件は悪いように思えるが、正規の平均在職期間は大体1年10ヶ月くらいで2年以上残れる社員は半数以下。 給与条件で現在のアメリカのIT業界で頂点に位置するのは、Uber Advanced TechnologiesとWaymo。 Waymoとかは、分社化以前は、平均給与が100万ドルとか、ありえない条件で雇用していたが、 運営費が膨大になりすぎたため、新会社(Waymo)を設立して従業員を全て新会社で新規雇用することで、雇用条件を一旦リセットした。 Googleで初任給20万ドルを取れるのは、このWaymoとGoogle Brain採用組がメイン。 有名大のPhD(一般人枠)で高給を狙うのだったら、FacebookかAmazonの方がいい。 ただし、Amazonとかは、全生活を会社に貢献することを求められる位、仕事はハード。
>>66 そうだね
仮に300年前の人類に親指サイズの半導体製品与えても同じように解明は難しいだろうね
GoogleのNo Degree組の初任給上限は10万ドルのうち間違え。
>>68 たしかにw
わかりやすい的確な例え有難うございます。
>>66 この分野勉強して1番強く思ったのがこれ
目とかもすげーんだなって
あとは人間にそういう機能があるって解明した人もすごい
カギはネットワークなのか? ネットワーク以外の構造ってないのかしらん?
>>73 生物の情報処理の根源はネットワークではなく
分子の相互作用だと言われている。
分子の相互作用ってそれ全てそうだろw すべて弱い力と強い力と電磁気力と重力って言ってるようなもんだぞ
複数の分子の相互作用と考えれば ネットワークになるけどね
脳の研究は人権無視の中国が頑張ってくれそうだから 地道に時系列問題の解決を目指す
>>79 チュ国は人権軽視の国と勘違いされる事があるようだけどそんな事もないよ
音も葉もないかな
この連休数学も統計もついでにwebアプリの作り方もって色々勉強しようと思って手付けたけど全部中途半端で終わりそう 一点集中にするべきだよなぁって連休の度に後悔してる気がする
5教科の中で、どの教科が一番大事だと思いますか? 国、社、数、理、英。
>>84 サンプルプログラムを読んだり、実行してみて、自分が探してるものか評価する。
もしかしたらどっちも合ってないかもしれない。
>>88 外国人技能実習制度の話ですね、技能実習生という名目で使い捨てただ同然で長時間働かせてポイする、というやりかたですね
移民解禁でこの選択を取らない方向に全体がシフトしていくでしょう
>>87 したいことを知ってるのは自分しかいない訳じゃん。それを実現する手段は後から付いてくる。
したいことに近いサンプルプログラムを探して、手を動かしてみては?
全然関係ないけど 見分けがつきにくい野草(トリカブトとニラ、みたいな)を判別できるアプリとか 需要有りそうじゃない?
ディープラーニングは精度100%などあり得ないが一般人にはそれが理解不可能なので毒物判定のような命に関わるものを扱うのは危険すぎる どれだけ丁寧に「開発者は一切責任を負わない」などと書いていても何かあれば叩かれるのは明白だから
>>93 とはいえ現場でいえば代替案を出せとかめちゃくちゃなことを言われるからな。。
いやそのプロジェクト止めろが代替案だったりするわけだが、大きな金が動くとどうしてもね。
>>91 現実には写真を撮って
「これ食べられる?」
ってツイッターとかにあげるのが
一番の早道
あらゆる物を毒物と判定するジョークアプリにすれば良いのさ
>>95 福島見てりゃ日本人がいざという時誰も何も責任取らんことはよくわかっただろ。
それでもまだ作らせるとかバカか?
地位と権力を持つ人の 責任感や使命感が ぼろぼろだね
>>99 世の中は所詮損得勘定で、だれも損なことはやりません
損得勘定でも世の中が回る仕組み(制度設計)を作るしかないかと
戦前の日本は、学府に進む学生は「みどことらがある」として地方の有力者から援助を受けるのが常で、顔の見える他人に恩を受けて学資を支援してもらうため、恩を感じて恩を返すために粉骨砕身で献身したと聞いています
つまり昔はわりとうまくいっていた面もあるとのこと
>>102 私たちが受けてきた国語教育は意味があるのかな?問題が多いのじゃないかな?
私が「国語力」を増進できた授業は英文和訳でした、訳文が日本語として共感できないものだと「横のものを縦に直しただけですか?」とか相当に教官から苛められました…
>>14 残念、明日を入れても 1800 語レベル/実際に覚えたのは 950 words で終わってしまい、英検準1 級レベルにはとどきませんでした
それに、もう今後は新しい単語は仕入れずにひたすら長期記憶への定着をはからなくてはいけません、ここであきらめては全ては水の泡、これからの定着作業が勝負の分かれ目です
単語集ってどれくらい知ってるかチェックするものであってそれを使って暗記するのは本末転倒。
それだけ意識高ければ無理やり英語圏に住んだ方が早くね?
>>108 その意見はよく理解できます、なぜならば、これまでの私の意見でもあったのだから
ISO/IEC9899:1999 を舐めている最中ですが、このまま辞書を引きながらやってもだめなんじゃないか…とふつふつと湧いてくる感想が持論と正反対の行動に駆り立てたようでした、非日常の10日間に、10日間でできる変わったことをしたいなあ、と
あなたのレスの書き方が他の人と違うことに気づいていますか? 気づていないなら教えてあげます 他の人と違っており浮いています そして私はあなたのレスが嫌いです バカ丁寧な口調であなたの語りが長々と書かれているスタイルに不快です 改善してください
>>111 専用ブラウザを使ってトリップを無視指定に加えていただければ、そのままで消えますから、それをお試しくださいな…
「QZaw55cn4」を選択してNG処理->NGNameに追加
よし(๑•̀ㅂ•́)و✧ 英単語云々はスレチだろう
>>84 2,3年前まではtf一択だったが、最近の論文発表とかを見るとPyTorchを使ってる例が増えている。
前、mediumに乗ってた両者の定量分析記事だと現在の比率は7:3位。
Google Trendsで見ると解りやすい
https://trends.google.com/trends/explore?date=today%205-y& ;geo=US&q=pytorch,tensorflow
多分、あと2年位でPyTorchが追いつくと思う。
したがって、今からやるなら両方使えるのがベスト。順番付けをするなら最初に抑えるべきはtf、次はPyTorch
>>117 practical adviceをありがとう
tensorflowはdefine-and-runでpytorchはdefine-by-runなのでpytorchの方が柔軟 動的に構造が変わるようなネットワークも書きやすい
tensorflow2.0からはdefine by runがデフォルトになって必要に応じてandの方も選べるハイブリッド型となっている
>>119 ところが今はeager modeでtfでもDefine-by-runで書けるようになってるんだなこれが
他の計算ユニットに投げる場合はどうせestimatorのインターフェイスになるから どっちにしろ変わらんよ。 そんな些細なことで躊躇するようならこの分野に手を出さない方が正解。
ライブラリは腐るかも知らんけど、理論は腐らんからちゃんと理論勉強しとくのがいい
ブームは終わるけどな20年後ぐらいに役立つよ、たぶん、きっと
画像分類モデルを作りながら勉強しているのですが、正常と異常を分類したいとして正常画像しか学習用に用意出来なかった場合でも異常を識別するモデルを作ることは出来ますか? もし可能であればどのようなキーワードや手法の名前で調べると良いでしょうか 初歩的な質問で申し訳ありませんがアドバイス頂けたら幸いです
>>126 前スレでは半教師あり学習、PU learningや能動学習といったキーワードが出ていた
Open AIの決算報告書が開示されたので貼っとく。
ポイントは、研究員の平均報酬は約50万ドルくらい。
ここの研究職のレベルは日本だと東大教授とか理化学研究所の上級研究職と同じくらい
なので一般技術者とは比較にはならないが、Redditの書き込みによるとOpen AIは非営利なので、
GoogleとかAppleとか営利は(Goodfellowレベルのトップ研究者には)もっと出してるはずとのこと。
他、全10名程の研究員が使用しているクラウド環境の使用料は年800万ドル
最初のStyleGAN(this person is not existの元ネタ)の論文が発表された際に、推奨動作環境は最低1024TPUv3が必要と示されていたが、
Open AIの環境は正に、最先端のAI研究には膨大なCPU/GPU資源(=資金力)が必要となっていることを示している。
https://regmedia.co.uk/2019/05/02/openai_tax_2017.pdf openaiの人が年収5000万円でも許せるけど 理研が5000万円はどうかと思う 小保方みたいなチームリーダーのポジションでしょ?
アメリカは高学歴無職が社会問題化してるのも深刻だが。 極端すぎるんだよ
理研はそんな給料ないやろ まあだから優秀な人間が流出するんだろうけど
どこに突っ込めばいいのか、 アメリカは優秀なのにはいくらでも払ってくるだろう 理研も東大も雇用は保証されるが給料は国家公務員なみだろ >小保方みたいなチームリーダーのポジションでしょ? アホだろ
機械学習を通じて学んだ知識、ブームが終わっても腐る気がしないんだけど
データ突っ込むだけで簡単に結果が出てくるようなソフトが使いこなせるだけというスキルはあっという間に陳腐化するがその根底で動いている仕組みの知識は陳腐化しない
>>136 AI,機械学習は一過性のブームなんかじゃないよ。
ツールは色々変わっていくだろうけど考え方の基本はそれほど大きく変わらないと思う。
>>136 同じく
数学や確率統計の理解、CSの基礎は血肉になってる
カーネル主成分分析に関して質問です。 カーネル行列の固有ベクトルaの各成分って高次元への射影後のベクトルの、高次元の世界の主成分軸への射影を固有値で割った値になっていますが、固有値で割るのはどういう意味、効果があると解釈すればいいのでしょうか? あるテキストだと固有ベクトルを固有値で割ってnormalizeするって書いてあるんですが、固有値は標準偏差の値では無く、分散の値ですよね?よく分かりません。
>>140 rand関数で生成された乱数は分散であるがその割合がガウス分布として出力されるようになっているのであれば
平均を0としてσの範囲内にあるかないかってことだ
2030年代の機械学習って 今よりも、どれくらい進歩していると思いますか?
素人だけど 学習の高速化 シンボリックを含むこと モジュール化 構造の自動生成 複雑な構造の解明と作成 こうした研究のその先にあるものでしょ? やっぱりAGIかなー
機械学習スタートアップシリーズって微妙なやつもあるよね
その勉強の先に何があるんだ、みたいなほんとうに触りだけの奴も多いな 最初から突き放してあげた方がある意味で良心的
理解しました。 これは高次元の世界の主成分軸の単位ベクトルの大きさを1とする制約からくるものですね。 固有値で割らなかった場合は主成分軸ごとに単位ベクトルの大きさが異なるからグラフにしたときに升目の形が長方形になってしまう感じ。
画像認識で教師なし学習って可能ですか? 例えばネット上の色んな画像をランダムに学習させてあとから犬の画像を抽出できるようにするとか
>>140 自分の理解だと
高次元空間における主成分軸への射影ではなく、高次元空間に射影した時点で
自動的に主成分分析っぽいことができていて、あとはスカラーを調整するだけだったような
>「このまま今の仕事を続けていった場合、一体自分はどこに向かっていくことになるんだろうか?」「10年後に果たして自分の仕事はあるんだろうか?」と不安に駆られるのも無理からぬことだと思います
キャリアの先が不安だから データサイエンティストではなくエンジニアの方になったわ やること多くて反吐が出るけど
高度IT人材が数十万人不足!とか騒いでる側から、現職中堅からこんな声が上がってるとはね AI、AI!はただの号令で実態はこんなもんなんだろうな 数年後には年間数万人規模の大学出AI人材輩出されるらしいが現場はどうするんやろ
結局システム作らないと行けないから、論文書くような人以外は、従来型人材が必要なんでないかしら
50代の偉いポジションの人なんかはメール使うのがやっとというレベルでありその人が考える高度人材だから実際はお前らが想像するほど高度ではない
>>149 理解しているのかしていないのか分からないけども
1. 高次元への写像
2. 主成分分析
という2段階のステップがあり、固有値、すなわち分散で割るのは主成分分析によるもの
次元削減で使う主成分分析も固有値で割るでしょ?
>>152 自動的にできるというのが言い方は微妙だけど
分類できるようにカーネル関数を選択するというのが正しい
>>150 分類はできるけどそれが犬であるかどうかは教師が必要
>>156 データサイエンティストって言っても多くは前処理要員だと思う
DataRobotにデータを食わせるためのエンジニアに近い
あるいは出てきた結果を偉い人にわかるようにWordやpowerpointに貼って説明する仕事
偉い人にデータサイエンスブームが来るだけでは? 他人にやらせるより自分でできた方が良いだろ pl理解するノリでデータサイエンスが必須スキルになるのでは?
ほにゃらら人材が何万人不足ってのは 「安く使い倒せる人材」が不足って意味だからまともに受け取ると死ぬぞ。
画像で犬が認識できるようになるには何層辛い必要なんですか?
>>166 第五世代の頃もそう言われていて騙されたw
>>167 CNNを3つ、すなわち畳み込み層とプーリング層を3つずつで6層かませて、その出力を全結合でうけたら結局最低7層くらいじゃないかね?
>>156 まぁ部署がなくなったりするよりはいいだろうw
>>170 そんなもんで行けるんですね
思ったよりコスト低かったです
ありがとうございました
>>162 しつこくてすみませんが、通常の主成分分析で固有値で割るっていうのが分からないです。
例えば3次元のテストデータ100個を主成分解析で2次元にする場合、
1. テストデータ(100X3)を標準化(平均0化&標準偏差で割る)する
2. 共分散行列を求める(3X3)
3. 共分散行列の固有方程式を解く
4. 固有値が大きい順に対応する固有ベクトル2つを並べた行列(3X2)を作る(※固有ベクトルの大きさは1)
5. 標準化したテストデータ(100X3)と4.で計算した行列(3X2)の積を計算する
の手順だと思いますが、どこで固有値で割る計算をする必要がありますか?はじめに標準偏差で割るのと関係しています?
>>173 単なる次元削減だとその通りで固有値で割るプロセスはないよ
PCAの出力をさらに分類に用いているから固有値で割る意味がある
共分散行列の寄与度の話が横割で入ってるからややこしくなってる きよど=対象軸の固有値÷行列のトレース(固有値の総和)
固有値大きいものの軸を残すのだから 寄与度も見とけという話
>>175 今は寄与度の話ではなく正規化の話です
機械学習で分類をさせる場合に、最初の前処理として正規化します
PCAで座標系変換したので、新しい座標軸で正規化をしただけです
難しいことは言っていないですよ
>>140 を呼んでなかったな
固有ベクトルを1に規格化してるだけじゃね?
変換行列をユニタリ行列にした方が扱い易くなるし
>>178 同じく質問を正しく理解してなかったかも
もしかしてこういう回答が欲しかったのかな
分散共分散行列 Σ
ある固有値λ=σ^2 固有ベクトルx
質問: 固有ベクトルの正規化はx/σではなくてx/σ^2はなぜですか?
回答: Σ=XX’で次元はσ^2だから。実際対角成分は分散が並ぶ。
文科省が○○万人不足!って騒ぎ出したらたいてい作りすぎで失業者の海になる
余って値崩れするくらいがちょうど良いんだよ。 経団連的には。
役所の肝いり人材増やそうとした業界は地雷だから進路をとるのはオススメしないところになる
AI人材の給料は新卒でも800万以上からスタートと聞いたけど違うの⁉
>>186 米国の話しね。
日本のサラリーマンは
まだ年功序列賃金が根強いので。
日本ではどんなスキル持ってても新卒は300〜400万スタートで固定
>>188 パナだっけスキルがあれば1000万払いたいって記事みたけど。
給与に期待したければ素直に外資行く NTTも高度人材には1500万以上出すとか言ってたけど、 内部調整が上手くいかずに形骸化 日本企業で現場が管理職より高給を貰うと内紛が起きる
コーディング(java or python,SQL,フレームワーク) 設計(デザインパターン,UML図) 数学(線形代数,微分積分,最適化数学) 統計学(大学一年レベル) 基本的なアルゴリズム(ロジスティック回帰,SVM,ランダムフォレスト,決定木,カーネル化) DeepLearningの基礎(ニューラルネットワーク,RNN,CNN) 最低限、この程度のことをわかっていれば業界に入れる気がする やってみれば簡単だし、すごい人材だとは思わないけど、どこにでも転がってるわけじゃないよなあ
俺なら初期ステこのぐらいで20代前半だったら全力で育てるけどな
そのステでどういう仕事あるんだろ。雑用の予感しかしない。 若ければいいけど
>>195 エンジニアにするしかないからPGからじゃない
どっちかというと、業務用webアプリケーションを開発しているところの、 機械学習エンジニアの求人にひっかかりそう
>>186 日本は博士号持ってれば基本的に初年度は基本給22マン程度、次年度から36マン程度になり、入社5年でだいたい80マン位になる
エンジニアになるにしても 新卒なら大学で何を習っていようがPGの下積みは必要だし データサイエンティストになるにしても たぶん前処理の下積みは必要なんじゃないかなあ
ちょっと意見を聞かせてほしい AIの勉強会をやるとかで話す内容丸投げされて途方に暮れている。まぁ3回目なんだけど 一応他の社員が聞くわけだからなんか何かしら勉強になるものを提供したいと思うの でも最近AIブーム終了だのコモディティ化しただのそんな話も聞こえてくるし ヒントン先生がバックプロパゲーション後悔してるとかディープラーニング自体いずれより凄い技術に置き換えられるのではとか そんなわけだから機械学習とかAI分野で色々技術が進歩しても大事になりそうな物って何だと思う? 例えば数学とか統計は間違いなくそうだろうなって。まぁプレゼンしても全然面白くなりそうにないのが困るけど 個人的にデータラングリングとか前処理とかはきっとずっと必要だろうしその辺なら話せるかなとか考えている
>>203 説明変数、評価関数、最適化の関係は普遍的なことだと思う
むしろそれが全てみたいなところあるじゃん
>>201 5年目で80万もあれだが金払いのいいとこならあるとしても、博士卒は普通27歳なのに初任給22万って
>>203 ディープラーニングが台頭した今だってSVMやロジスティック回帰やら決定木やらはデータ分析で現役だし
ディープラーニングより凄い技術が出てきたってそうなんじゃないの
理系の博士号と取って、五年目で80万は平均値としては正しいかもなーって思った 俺はそういう世界のことよくわからないけど
ディープラーニングでうまく行かず SVRを使ったけど 原因がわからん。 やっぱもっと勉強しないと だめかなあ 今は勉強してなくても給料高いから サボってしまう
統計も大事だけどその基礎として線形代数の方がもっと重要だな
>>205 初年度は研修生である事に違いはないのでその程度が相場
>>192 >最適化数学
はじめて聞く名前ですね…
最適化数学も知らないと臆面もせず書き込めることがこのスレのレベルの低さを物語っている
>>212 その「最適化数学」の中にでてくる technical term をいくつか紹介いただけないでしょうか?
知らないことそのものを言ってるんじゃなくて、 自分が知らないことに対する態度のことを言ってるんだと思うよ
プログラミングできなくても ms-officeを使うように 中身を知らなくても 使うようになるよ
最適化数学くらいググればいくらでも出てくるだろ だからこの擦れはレベル低いといわれる (実際レベル低いけどw)
最適な解を求めるのは計算量などの壁があるので 現実には準最適解で我慢するしかないがな
数理最適化なら普通によく聞くんだが、「最適化数学」でググると特定の本ばっかり出てくる…
>>207 平均はもっと低いぞ
アカデミックなら五年目で年収600も行かんことが多いし企業は残業次第じゃないか
>>210 俺が就活したときそんな求人見たことないが。まあ分野違うけど
>>224 そんなもんか
今はなんだかんだでオーバードクター向けの求人が多いから、
もう少しもらってるのかと思った
叩き上げの機械学習エンジニアからみると、 大学院でアカデミックなことを学んで、データサイエンティストになった人たちは輝いてみえるんだけど お給料は俺らと大差ない上に、キャリアを考えたらエンジニアの方がずっと安定するのね この国は技術や知恵に対する敬意が足りない
>>227 今まで日本式経営は多くが近代的だったためデータの持つ力が分からなかった
データを活用する方法と、データが経営判断・利益に直結することが知られてきたので、データ屋さんは徐々に需要増と予想
とは言っても特別扱いは無いだろね 色々な専門家が集まって企業は作られてるわけで、昔の花形分野の専門家と同じ扱いになるでしょ
>>229 その通りだね
データ関連事業は活性化すると思う
国の研究機関はさらにまずいね
データ関連のポジションがなくデータは研究者のサイドワークになっている
海外は米国、欧州、中国はデータ関連のポジションがある
まずは隗より始めよ。 国の研究機関で派遣のデータ関連の仕事あったよw ポスト増やせないのね
>>232 パーマネントポジションという意味ね
派遣に任せるデータではなくて、博士号を持った研究者による専門チームが各国にある
派遣エンジニアはいくらでも必要だし雇用するけどもそれらを統括して将来構想を戦略的に練るポジションからして存在しない
データ戦略という概念がゼロ
>>233 そのとおり
派遣に丸投げで、論文の紹介すらできないんだもの。データ扱いたいなら自分が勉強するか、データ系の博士持ちせめて有期で雇って欲しい
久々に立ち寄ったらポジションくれくれスレになってた
なぜ給料の低い国の研究機関に ポジション求めるの? 民間企業でいいじゃん? 給料高いし変な縛りもない。
人材が不足するという割に国関連では求人してない矛盾を憂いてるのさ。憂国である
>>国関連 手が足らずに統計不正が起きるほどに人不足なはずなのにな。 マジクソだわ。
本当は日本捨てたい この国みんな保身ばっかりで、みんなで少しずつ沈もう感がヤバい 日本脱出のために高度な技術身につけてると言っても過言ではない
そう言えば、坂本ボットがいなくなったな。いい加減なもんだw
>>219 google の結果や、そもそも web 上に展開されている知識ベースが必ずしも実体を正確に反映しているとは思っていないのです
旧来のカテゴリーなら OR(オペレーションズリサーチ)に属するとは考えていますが、じゃあ、なぜ OR という伝統的なカテゴリーを捨てて「最適化数学」とかいう変てこな日本語にしたのか、非常に興味があります
それに、その「最適化数学」は解析なのか代数なのか幾何なのか、それもよくわかりませんし
>>218 よくご存知ですね、ただ私は C++11 or later は、どちらかというとよくわからないと答えます、それはここで明言しておかないといけませんね
>>229 >日本式経営は多くが近代的だったため
それは褒め言葉ですか?
>>236 制御数学、というのは、いわゆるラプラス変換とかZ変換とかの部類でしょうか?
何でこのスレip表示なの? かつて荒らされたことでもあるの?
スマホかISP経由なら気にすることないでしょ 職場からカキコする人がいたら面白い
そりゃうっかり職場のwifiに繋がってることもありうるしこの手の業界狭いから下手するとすぐ個人にたどり着きそうだし 特に理由無くip表示にしてるならちょっと変わってるよな
>>250 ipアドレス収集してその人が何やってたかをまとめてるサイトとかもあるし、家のipだとしても気持ち悪いよ
>>242 なにを今更
正直、親族がいなければ簡単に捨ててるわこの国
英語だけでなく、中国語の勉強はじめた
二十年後には日本の10倍、アメリカの2倍のGDPになってる中国に鞍替えします
でも実際、論文は出てるよ 20年前は「やってみた」系の論文は日本から量産されていたけど 今は「やってみた」系すら出てない
マーケッティングに統計を使うのは無理そうなんだけどなあ まあやってみれば。私はやらないけど
>>251 何スレ前だかに意図不明で唐突にIP表示で立てたやつがいた
次スレからはワッチョイだけでいいと思うぞ、不便なだけなんだから
>>231 早晩データ分析の限界に気づかれると思う。
あたりまえだが限定的な得られたデータの範囲内でしかないし、過去〜現在を現してるに過ぎず未来を現すものではない。
過去の延長にはない未来予測=リスクを取らない意思決定や経営判断は、命懸けでリスクを取ってくる連中にいずれ負ける。
製造業支援がいいかねえ 品質アップには役に立ってそう 中途で参入は難しそうだが
>>258 マーケティングって統計学を応用できる最たる場所じゃないの
>>260 皆がそう思うから新たに人を取らないのは理解している
将来に限界が見えるから投資しないことと、最低限のインフラ整備の投資は別で考えなければならない
今は最低限すらないから相当やばい
これは水道の整備によく似ている
将来は人口が減るから水道設備はいらないと言っているようなものだ
蛇口をひねれば水が出てくるように欲しいデータがすぐ手に入る国と、川まで行って桶で水を汲むようにデータを使えるようにするまでに数日から数カ月かかる国では、研究のスピードがまるで違う
下水が整備されなければ病気が蔓延するように、専門家がデータの健全性を担保せねば、それを使った研究の正確性にも疑問符がつくだろう
研究の質と量を上げるインフラ整備に全く考えが及んでいないため、差はどんどん開くだろう
>>263 特段にそういうわけじゃないが、大学の研究や旧幾で入手しやすいデータがそういった類のものが多いために、国内ではそうなりがち(思いがち)と言えそう。
統計解析で見れば、医薬関連などのほうが歴史も事例も研究もずっと進んでいる。
>>256 鞍替えは冗談だけど、もう情報技術に関してはアメリカより中国の学会の方が評価高い
機械学習で食い続ける気概があるなら、中国語は必須さ
中国行ったら迫害されんじゃね? 西側諸国と同等の人権がもらえる気はしないな
中国語習得しなくとも英語堪能なら中華企業行けんじゃない てかあちこち手を出して一生下働きな戦略はどうなの
東大松尾研究室監修のエンジニア向け教育プログラム「DL4US」の演習コンテンツが無償公開
https://ledge.ai/dl4us-free-contents/ >>269 でもあいつら英語でコードかかないし、論文も英語化しないからなあ
自分たちを世界の中心だと思っていやがる
今や日本の方が賃金安いから中国が日本の工場に作らせる時代になったのになぜか日本人は中国に対して上から目線になってしまう
この分野の勉強してれば嫌でも中国を意識せざるをえないから仕方ないでしょ
>>277 どの世界の話しだよw 機械学習分野でそんな必要ないよ、日本は周回遅れだもん
機械学習の理論に関わるぐらいのクラスの人なら 中国の急速な台頭で、ゲームのルールが書き換えられてしまったことに気づくわ 以下に漢民族とアメコーの知識を吸収し、日本に還元するかというところがこれからのミソ 真の愛国者は中国語を勉強して彼らの論文を読んで平たい日本語で書籍を出す 俺たちはその愛国者たちを尊敬し、彼らが紹介してくれた技術をありがたく使わせていただくのみ 中国語を勉強する者を媚中と罵るなんてもっての他だから
昔の日本の位置に支那が来たことに気づいていない人は早く目を覚ました方がいい
機械学習の論文なんて中国人ばかりなのに、読んだことない人が一人でイキッてるようだね
科学研究 中国が躍進 論文シェア、半数首位 米と2強、日本低迷
https://mainichi.jp/articles/20190506/ddm/002/040/088000c 中国が科学論文数で初めてアメリカ合衆国を破り世界トップに
https://buzzap.jp/news/20180123-china-st-studies/ | 中国なんて劣化したパクリと海賊版だけだと考えている人は完全に時代遅れということになりそうです。
これからは日本が中国のコピーをしなければならない時代
>>281 >昔の日本の位置に支那が来たことに気づいていない人は早く目を覚ました方がいい
とはいえ、20年前に戻ってみても、日本がアジアで突出していたわけでもなく。シンガポール、台湾、香港、韓国と横並びだった。ようは、興味が薄れてしまった時代だった。
>>287 シナの論文を読んだことないということね
>>279 「ゲームのルールが書き換えられた」に禿同。
中国語を覚える気はないけど、オープンソースのプロジェクトのメーリングリストがいきなり中国語になって困惑させられることはたまにある
自分もだが、普通の人が読めるのは英語で書かれた中国人の論文までだな 中国は独自の AI 文化を築いていくのでしょう
おいおい 中国人の論文も英語のものは 目を通しているがマジでクソ論文だぞ? 欧米の論文をパクッてほんの少し変えて 新しい理論として書かれていたりする。 まじ呆れてボーぜんとするよン
>>294 昔の日本は外国からそう見えてたんだろうな
むしろ中国語分からない学習できないという状況になる方が理想的 従来の欧米中心のルールは書き替えないと日本は未来永劫 欧米の真似をするサルで終わるだろう
>>259 IPスレなのにこの進行速度は異常
次もIPスレでよろし
中国酷いというヤツと中国凄いというヤツがいて面白い 中国人研究者の数が多すぎて、論文数が評価軸になるからクソ論文が大量生産されて、査読のためにクソ論文を大量に読まされる被害者がいる 一方で欧米の大学院はどこにでも中国人がいて、何割かは優秀な中国人がいて、帰国して企業に入って金の力で海外の有名な研究者を呼び寄せて結果を出し続ける研究者もいる 翻訳もBaiduがGoogle超えてるとも聞くし中国を侮るのはどうかと思うが、中国人のお陰で研究というものが陳腐化した印象はある
アホくさ、中国酷いと言ってるやつは論文なんか読んでるわけないじゃん
>>302 i223-217-42-3.s42.a014.ap.plala.or.jp
>>305 恐い
UQ036011224001.au-net.ne.jp
ac216001.dynamic.ppp.asahi-net.or.jp
やだやだ UQ036011225001.au-net.ne.jp KD106180024001.au-net.ne.jp
このスレってこういうとこなんだ、
知らんかった、俺も二度とこないわ
>>303 良くも悪くも中国中心に回ってるということ。lecun の研究室だって中国名の人ばかりだ
マーケッティングって名義尺度や突発的な事態にが 最大要因になることが非常に多い。 例えば、トランプが中国への関税を上げるとか、大地震などの 災害が起きるとか。こんなものは数値化できないし、前もって 予測できない。これをどうやって統計に乗せろと?
>前もって予測できない。これをどうやって統計に乗せろと? それちょっと考え違いがあるようだ それだからこそ統計なんですよ。 わかってもらえるだろうか。
>>313 統計に落とすなら極値統計学だね
ある期間の中でどのくらいのリスクが発生するかを予測する
ワイブル分布やガンベル分布って聞いたことない?
実際に金融工学のリスク算定に使われている
IPアドレス 153.143.156.86 国 Japan Geolocation country flag 都市 Saitama 郵便番号 337-0042 緯度 35.867 経度 139.65 天気 View Weather タイムゾーン +09:00 現地時間 16 May, 2019 03:46 AM (UTC +09:00)
IPアドレス 126.233.158.206 国 Japan Geolocation country flag 都市 Kurayoshi 郵便番号 682-0021 緯度 35.433 経度 133.817 天気 View Weather タイムゾーン +09:00 現地時間 16 May, 2019 03:49 AM (UTC +09:00)
携帯からならばプロバイダが固定されないからまだいいが、教育機関端末からの書き込みはDSNまでばれるので気をつけてね
>>316 極値統計は、数学的には
怪しい気がする
>>319 これはおかしいな。
正しくは
国 Japan Geolocation country flag =>Saitama-koku Geolocation country flag
都市 Saitama
スレチかもしれないけど、 画像や映像から体骨格と肌の色をリアルタイムで認識して、 全裸のポリゴンを服の上からARみたいに被せることって技術的に可能? 教えてエロい人!
ニューラルネットワークでは層を多くすると勾配消失問題が発生するそうですがディープラーニングではどのようにそれを回避してるんですか?
>>186 AI初任給800万は、東大京大東工大の修士でGoogle入社した場合。
Microsoftもそれくらい出してると聞いたことがあるが、修士に800万も出すところは普通はない。
外資系でもOracleとかは大卒、修士平均よりも月給換算で数万円上回る程度。
基本的に、初任給が平均よりも極端に多いところは、周り中がMITとかハーバードとかなので、東大卒程度の低学歴では生き残りが難しい。
大体、平均在職期間は2年を割ってる。
>>334 top100に入ってる日本人は杉山先生だけ?
>>338 上位はLast Authorの数だから研究室運営力か研究グループが素晴らしいと言うことかな
単発でいい論文を書くと言うよりも、いい論文を量産出来る土壌を作っている人が評価されるランキングだね
>>341 中国語を勉強しています
いずれ日本は中国に頭を下げる必要が出てくるだろうと思っているからです
中国人の捏造クソ論文を チェックするときが最も憂鬱だ シナ人皆殺しにしたくなる 韓国は終わってるから無視だ 大不況の韓国ざまあw
>>343 中国人で日本語がペラペラな人がこれだけ多い中で、どの立ち位置で自分が活躍するか考えた方がいいよ
日本人で中国語が少し話せるくらいなら全く話にならないよ
>>345 >中国人で日本語がペラペラな人がこれだけ多い中
これには理由があるんですよ、すなわち中国語話者は日本語をマスターしやすいし、同様に日本語話者は中国語をマスターしやすいのです
中国語をやってみればわかりますが、中日で漢語の33% はほぼ一緒、33% も理解可能(理解に苦しむほど変わっているわけではない)、中日でそれぞれに固有な漢語は 33% だけですね
英語のようなまるっきし別の言語をやることに比べれば、漢字を1万字程度すでに知っている日本語話者にとっての中国語は、英語よりもはるかに容易だと感じています
欧米系の方が中国語をマスターしようと思ったら、まず漢字を1万覚えないといけないし、漢語(熟語)も1万くらい覚えないといけない、このハードルは大きいですね
アメリカの冒険投資家ジムロジャーズも、中国語は自分の子にマスターさせる、というフリカワリでやっていくようですが、確かに欧米系からみた中国語は理解不能な暗号たりえます
すでに英語をある程度理解できる日本人であれば、3年ほど中国語を勉強すれば、欧米への橋渡し的な役割でも食っていけますね…
>>345 というか、中国人に頭下げて質草を入れてカネを借りる事態になるのでは、と予想していますね
>>348 自分の意識が低ければそうなる。
大志を抱け。
中国語も良いが当然英語はマスターしてるんだろうな。 なんか本末転倒してる様な気がするが。
>>349 >英語はマスターしてるんだろうな
これは痛いところを突く質問ではあります…
子供の早期からの英語教育の話題になると「まず日本語からしっかり学べ」と指摘する人が湧いてくるが日本語しか使えない人と英語しか使えない人なら後者の方が圧倒的に使い道が多いんだよな
でも日本語の読み書き話がおかしい人がたくさんいるし 論理展開も無茶無茶な人も多い
>>354 「日本語をしっかり学べ」ってそういう話じゃねーだろ。
やっぱ日本語をしっかり学ばないとダメだな。
外国に人材流出してほしくないから、 リスニングとリーディング以外は鍛えてほしくないんだろ 社会のあり方としては正しい でも個人でずる賢く立ち回るには英語の技能は必要・・・なんだが自分は苦手なんだよなあ、語学
>>356 英語で論理展開できてるならそれでいいだろ
>>354 母国語をなおざりにして英語やってると日本語も英語も中途半端で可哀想な事になるリスクがあるという話
>>361 それは普通のレベルの帰国子女の方にとっては特に深刻な事態だとききます
いわゆる「セミリンガル」というやつですね
高度なAI人材(トップカンファレンスに論文出した人)の数に関して
https://www.asahi.com/articles/photo/AS20190428000131.html ここの人口10万人当たりの人数をみると英語がネイティブかどうかは重要な気がする
まぁ日本人が論文出すと、文法的なミスが多いとか査読で結構指摘されるよね
>>363 その理屈だと豪州とか加州とかは有力なはずではないかと、それに私の感覚では北欧がけっこう強いというイメージがあります
>>344 13億人コロすよりも論文チェックする方がラクやと思うで?
異常検知でオートエンコーダを使ったモデル作ってみたけどあんまりうまく行かない 正常と異常の分布が最初から完全に被ってると使えないような気がするんだけどやチューニングで何とかなるもんなの? 上司からは世の中検出出来てる実例があるんだから絶対できるだろって言われるんだけど…
>>358 逆でしょ
むしろ日本人&日本企業は英語習得して、積極的に海外展開していかないとジリ貧やぞ
日本企業でも外資でも両方働ける人になるのがいい
外国語苦手な人は、言葉以外のとこで頑張ればいいよ
>>367 やってみないと分からない、機械学習の怖さ
データ量が足りないか、モデルが違うのか、そもそも学習可能なのか
とかいろいろと考えられる
>>370 そんなスーパーマンがわざわざ日本企業て働く意味ってないよね?
企業の将来性の点でも自分の能力向上の点でも
>>367 正常、異常のラベルはあるの?
人が見たら確実に異常と分かるようなものなのかどうかは一応の判断基準かな
人が判断できるなら特徴量の選び方を工夫する、モデルを工夫すれば何とかなる場合もある
人が判断できないなら単なるパワハラ
>>367 です
>>371 >>375 ラベルに関しては正常が1万、異常が20あります
人が見ても一応異常と判断することはできます
ただ、欠けやキズではなく位置ズレなので軽微なやつは分かりにくいです
分布が正常の方が広くなっていて、異常は小さく、正常の中に被っていて閾値が引けないので
あまり水増しで画像を加工しないようにするのと対照の所を判断しやすいように画像のトリミングを行ってフォーカスさせて変化を見てみるくらいかなぁと思ってます…
アドバイス頂いた特徴量の選び方を工夫するとはどなような方法がありますか?
あぁ、実例があるって書いてあった 同業他社がすでにやっているなら原理的には可能かも知れないね ただ世の中にはプロの囲碁棋士に勝てるAIがあるんだからお前も作れよ言われても厳しいね あとはまぁオートエンコーダを使ってる理由によるかな ラベルがないからと言う理由なら仕方ないが、入力が画像ならCNNをネットワークに組み込んだ方が性能が出るし、ラベルがあって特徴量が少ないならXGBoostを試すのもあり
>>376 画像から何らかの基準値が作られてそれが識別として利用できないなら基準値を変えることから始める
位置ズレを検出したい、かつ人間なら判断できると言うのであれば、結構な確率でそのようなネットワークは作れると思う
もし位置が重要であるならば、前処理として画像を2値化して白黒にしてしまうのがいい
正常と異常のバランスが悪いので、正常なデータだけを使ってVAEを組むのが良いが、オートエンコーダは検出能力が低いので、正常だけども異常と判断されるように閾値を下げる
異常と検出されたものの中から正常なものを除去するために、異常なデータを水増しして、CNNを組み込んだデータで2値分類をする
こんな感じかな?
>>378 ありがとうございます
こちらから情報が出せないなか丁寧にありがとうございます
2値は試してみたのですが、元々の画像自体がそれほど鮮明ではなく
影などノイズも多く写り込んでいて2値化すると検出対象が特徴として捉えられませんでした…
正しい名称か分かりませんが、Convolutional AutoEncoderを使っています
ラベルに関しては元々正常しかありませんでしたが、評価用に正常をトリミングなどで加工して異常としたので元々は正常しかありません
あまり現実離れした異常を作ることは意味がありませんが試してみて変化するかとりあえず見てみます…
>>381 積率母関数(Moment Generation Function; MGF)のことでいいかな?
確率変数XのMGFが分かると、E[X^n]が簡単に求まるので係数を除けば
E[X] 平均
E[X^2] 分散
E[X^3] 歪度
E[X^4] 尖度
に使える
大学一年か二年でならう統計学の内容だけど よほど理論的なところに関わってないと、実務で積率母関数を扱うことまずないよね
全モーメントが分かるとあーら不思議確率分布がわかっちゃうのよ
よく分からんけど便利なんだな 分かるようになるまで勉強してみるわ
確かに積率母関数を実務で使ったことない よくある問題としては、正規分布に従う確率分布がn個(X1, ... , Xn)あり、各々二乗して全てを足したY=X1^2+...+Xn^2はどんな分布に従いますか? 答えは自由度nのカイ二乗分布になるんだけども、畳み込みを使って帰納法で解くのと、MGFを使って解くのどっちが簡単かというと、多分MGFのが簡単
>>380 二値分類問題であれば、まずは SVM を試してみるという方法もあるが
>>336 憤りを感じるのはもっともだが、東大PhDでも生き残りは難しいのは事実。
5年くらい前までは日本語処理とかで日本人を完全に排除することは難しかったが、
2014年以降は、ローカル固有の処理は排除し、多少、機能は劣っても共通基盤で統一する方向に進んでいる。
例えば現在のGoogle JapanのAI部門のトップは、スザンナ・イリックという強気の女性で、
AI部門の採用に関してはスタンフォード、MIT、ハーバード、バークレイ、カーネギーとかの指定大学制度を採用していて
他の大学の卒業者だと、書類選考で落とされる可能性が大(前にそれ以外は見る価値はないのようなことを言い放って一部で議論を招いた)
ただし、Googleのほかの部門に入るのであれば東大、京大、東工大であれば入社はわりかし簡単(むしろ最初は歓迎されると思う)。
あと、営業系だと、給与は他の日本企業と大して変わりはない。
あと、一点だけ書くと、AI以外の部門に東大卒で入るのは、やや問題がある。 なぜならば、AIとかの研究開発部門以外の部門に関しては、採用条件で大卒以上という学歴制限がないため 入社してマウンテンビューの本社に派遣されると隣の席の人は高卒ということになったりする。 高卒でGoogleに入るようなやつは大概の場合、プログラミングの天才みたいなやつが多く一般人だと勝てない。 さらに院卒と高卒だと年齢差が6年はあることになり、院卒の年齢だと完全に浮く。
>>393 Googleやyoutube使ってると
マジでクソなプログラムばっかりだ
天才を集めてるというが
誰が判断してるんだ?
人間は自分より知能の低い人間しか
理解できないんじゃないのか?
Googleには一部に天才的な人はいる。
それは認める。
しかし大方はクズの馬鹿だ。
六本木にいる奴なんてゴミばっか
クレクレ受け身じゃなくサービス立ち上げたるぐらいの気概出しなよ まぁそこが順調にいきゃ苦労しないんだけど
ネットのニュース記事に、有識者のコメントのように 自動でコメントするAIは実現可能ですか? さすがに難しい?
YouTube の表示にバグがあって、報告しても、2週間以上そのまま放置される! HTML, CSS, JavaScript, jQuery などを知らないから、修正できない 検索フィルターの条件に「今日」と入力しても、それ以前の動画も表示されてしまう。 もう直ったけど
>>400 おれは言語や翻訳の機械学習も
やってるが、
コメントの内容がありふれたものでいいなら
そんなに難しくはない。
基本的に、5ch とYouTube はテストせずに、本番用を変える。 漏れはYouTube に、何回も報告してる! HTML, CSS, JavaScript, jQuery などが、おかしい 5ch も、IE11 では無限ループか何かで、操作できない! UI がスタックして動かない
エキスパートシステムと機械学習の組み合わせでいける 参考にならないコメントしか作れないけど ロシアが大統領選挙に介入した時のtwitterのコメントもたぶん その技術で作られているんだと思う
google に入れる人は同業者が見ればすぐにわかるよ 格が違う
>>398 youtubeに犬の動画をUPしたら、
NHKの雲霧仁左衛門という
時代劇の著作権を侵害しているとなる。
300ほどの動画のうち20件は著作権侵害と
判定されるが全く別のもの。
機械学習がお粗末。
そして、間違い判定であると申し述べる方法がないのが問題。
>>410 twitterで中の人に文句行ったら?
大学3年生で、自分で機械学習を勉強してる者です、気になることがあるので質問させてください 機械学習の例としてよく文字認識があげられますが、文字認識自体はかなり前から実現されているように思えます(例えば電子辞書に搭載されてる、手書きの漢字を検索してくれる機能) そういった一昔前の文字認識はどのように実現されていたんでしょうか
>>412 東芝 文字認識 pdf でggr
実社会での利用が広がる文字認識技術
>>413 ありがとうございます
こういった技術はオンライン文字認識と呼ばれるんですね、応用例も知れて面白かったです
>>415 パターン認識の教科書もちゃんと読んでね
>>404 > HTML, CSS, JavaScript, jQuery などが、おかしい
原因特定したつもりか知らんけど全く情報量ないやん
CNNってオートエンコーダよりだいぶ前に発明されてたんだな 画像認識だけならCNNだけで充分そうだけどなんでジェフリーヒントんがこんなに注目されてるの?
>>415 俺も検索してみたが OCRなんて手書き文字認識じゃないんだぞ。
手書き文字認識で重要な要素は書き順、画数なんだよ。 書かれた文字にはそれらの情報がない。 半世紀前に俺がやった。
>>420 画像を解析するんじゃなくて、どう風に何回書かれたかという情報をもとに認識するということですか
確かにその情報を使えば画像だけよりかなり高精度で識別出来そうですね
>>422 昔の限られた資源で手書き文字をリアルタイムで認識するには、出来るだけ使える情報を使ったと言う事だよ。 メモリも殆どなかった時代だから。
そう言う工夫は今でも重要だぞ。
オートエンコーダが異常検知に使われてるって記事見かけるけど、微量な変化は捕らえられるのかね? 形状がダイナミックに変わるやつは検知出来そうだけどちょっとズレてますとか傾いてますとか分かるもんなのかな
フリーでデータ分析の仕事を始めて15年になりますけど 2016年ぐらいからビッグデータバブル という状況になりまして、 かなり高額の報酬もらえてます。 ビッグデータバブル万歳! でも、もうすぐバブル崩壊ですね?
バブルのピークはもう過ぎたんじゃないでしょうか ガートナーによると幻滅期に入ったそうですし
>>429 15年はすごいな。
どうやって仕事とってるの?
どんな感じの内容?
>>430 IoTの時代になるからますますデータ量は大きくなる。 分析からAIみたいな方向に移っていくだろうけど。
>>431 一度入り込めば継続的に仕事が出てくるだろ。 人手が足りないんだから。
ワイは入り込んだのかよくわからんまま、データ分析のフロントエンドやってるw
>>431 機械学習利用で25年喰っている会社もあるからね
今は、社員一人頭の売り上げが5千万円
>>432 最近は素人でもそれなりに分析出来るようになってきてる。
そのためほとんどが社内で完結できる案件になってきてると思えるけど、その中でフリーに頼るような案件ってどんなのがあるのかと思って。
>>435 普通ソフトの会社の売り上げは給与の2倍、社員が1/3ももらえていなければやめるよ。
>>438 大手企業が直接フリーを雇うわけないじゃん。
下請け、孫請け、3次受けとあるんだから、企業はまともな下請け会社にずっと仕事を出してるつもり。
しかし、フリーはアルバイトみたいなものだから、下請け会社が孫請け会社を使っていませんと申請しても、嘘ではないからずっと続く。
下手な小さな会社は苦労する。
流石に下請けなの知ってるでしょ。 飲み会でもしたら上流からの金の流れ分かるよ
>>435 ところがどっこい。
さらにどこかのパッケージソフト使っているわけでもないし
外注なしなんで、スゲー利益なんだよ。
KDDのコンペティションでは、この10年で2度準優勝してるよ。
さらに、基本的に直受けしかしない。 また、受託もやらない、全て委任契約のみ。
さらにさらに、 成果物に関しては、相手企業には使用権のみ許諾して 所有権は渡さない。 嘘と思う人がいるだろうが、本当の話だよ。 もちろん日本の会社。
訂正 >所有権は渡さない。 → 所有権と著作権は渡さない。
>>440 オレ1人で月の売り上げ5千万以上、年に7億稼いでたけど給料800万やった。
(2割は利益を出していた)
体壊して辞めたけど。
TJOがあんなポジショントークする奴だとは思わなかった ガッカリ
それはいかん。自分は零細ITにいたけど上の方は1千万超えてたよ
>>419 いやそれだとAIの進歩に時間かかりすぎじゃない?
CNNが発明されたのって90年代だよね?
>>452 あそこは技術者一人当たりじゃなくて社員一人当たりなんで
経理も総務も含めて、かつバイトも使っていないしね。
需給予測は市場規模小さい業界だと思ったが 今は広がってんのかね
>>455 昔のPCでNNの計算なんてとてもやってられん
自然言語処理を専門にするか、画像認識を専門にするか…
>>自然言語処理を専門にするか、画像認識を専門にするか… >画像認識のがいいよ >自然言語のほうがいいよ 耳の不自由な人を 画像認識と自然言語で支援しなさい
gunってなんの役に立つんだろうと思ってたけど結構gunを使ったサービス増えてきたね
機械学習には適切なデータが大量に必要と言っている人がいたけど、
別にそこまで適切ではなくてもいいんだよ
ある程度信頼できれば
https://gigazine.net/news/20190524-google-deep-learning-depth/ >>467 実務上は、少ないデータでいかに使える結果を得るかということが
必要とされることが多いですからね。
そうそう ビッグデータというけど 続けて標本サイズの小さい仕事をやってる。 n=40個ほどしかないけど 説明変数200ほどあって 14種類の機械学習試したら どの方法でもなんとか予測できた。 同僚の手腕がいいので助かってる。
教師無しではデータの量と質が要求されるけど、 教師有りでは過学習に陥らないように学習させれば、1/10ぐらいの量でもイケルという認識
GUNは業務では使えんけど見栄えいいから公開に向いてるってだけだぞ。
>>472 そんなん問題によって違うとしかいいようがない
学習をしやすい問題とそうではない問題がある
機械学習の基本中の基本
>>431 > どうやって仕事とってるの? どんな感じの内容?
「フリー」と書きましたけど、自営業というより「非正規」という意味で書きました。
元々統計学を専攻してたけど卒業してからIT企業にてSEやってました。
その会社でいろいろイヤなことがあって辞めて、
メーカー系列のPG作成のアルバイト募集で面接にいったとき、
統計学を専攻していたと言ったら
ちょうどデータ分析の人を探しているということで
アルバイトしませんか?といわれたのがはじまりです。
その後は、請負い、契約社員、SES契約、派遣社員と
いろいろな契約形態でやっていましたけど、
そろそろ正社員になるかもしれません。
正社員になると年収は少し下がりますけど、
もうすぐ不況になりそうな予感がするので、
さっさと正社員になったほうがいいと思っています。
教師あり学習って教師なしに誤差ゼロの特徴量が加わっただけだから大した差はないのになぜか別物扱いしてしまう人が多いよね
>>479 誤差ゼロって何に対する誤差だよ
ラベルの事を指してるんだろうがラベルは予測に使わないし特徴量ではない
教師ありとなしは完全に別物だぞ
ラベル以外の特徴量から何らかの方法でラベルに近そうなものを計算して、その計算結果と実際のラベルを比較して誤差を調べる 誤差が大きければ計算方法を修正する そうして最適なラベルの算出方法を決定するわけで、「予測に使う」というのが学習過程で使われるという意味ならラベルもその他の特徴量もしっかり予測に使われている 教師ありではラベルは絶対的に正しいこと(=誤差ゼロ)を前提とするのでラベルとの誤差が精度の良い評価対象になるが、 教師なしでは誤差混じりの特徴量しか得られなかったがために別の評価指標を使っているだけのこと 理論の上では本質的な違いはないんだよ
>>483 学習途中の話?予測に使うというのはモデルに入力するという意味
運用時にラベルは与えられないだろ?
教師なしは学習時と運用時で使える情報は同じだが教師ありは違う
自動車と金槌の本質的な違いは?って聞かれても答えに困るわ
逆に理論のどこを見て本質的に同じだと思うのか
用語の意味を都合よく解釈しているようにしか思えない
>>484 誤差の大小と損失の大小は同じなのでここではどちらでも良い
>>483 前から教師ありとなしの本質的な差がないと主張する人がいて、その真意を聞きたかった
例えばMNISTで教師なしで分類したとする
全部で10種類とクラスの数を固定すれば、教師なしでもおそらく正しく分類してもらえ、本質的な差がないという主張は理解できる
ではクラスの数が不明としたらどうだろう?教師なしではどんなにデータを増やしてもクラスの数が不明な限り同じ結果は得られないだろう
この辺りの説明をしないで本質的に同じと説明すると、機械学習は本質的には最小二乗法と同じと言ってしまい炎上したのと同じ危うさがある
元々数学的な手法がいろいろあって、機械学習の分野のやつが勝手に2つに分類しただけ。 教師有りと無しで基礎原理は大きく異なる。
まあ何らかのモデルの式のパラメーターを最大/最小にする問題と考えると大差はないかもしれん 正解ラベルとの誤差で式を立てるかそれ以外の式で立てるかどうかの違いでしかない 数学的に考えれば
ディープラーニング使ったらCGとかも今よりずっと低コストで作れるんだろうな 個人でスターウォーズなみの映画とか作れたりとか 特に流体の表現でかなり効果を発揮しそう
3水準以上の多重比較検定は偶然の確率が上がるから棄却域を下げるっていうのが納得いかないんだけど ABCの3水準があってAとBに差があるかだけが知りたい場合Cとの検定は関係ないのでは?(極論を言えばCとの検定を行わない) どこかに差があるかを調べたい場合のみ有意水準を操作すればいいの?
>>489 そうだな、犬も猫も人間も哺乳類と考えると大差はないかもしれん
・手取り足取りデータの前処理から予測モデルの作成、チューニングまで一通り網羅 ・質の良い参考書がたくさん紹介されており、これから先もある程度示してくれる ・学術書でないので、安い 欠点: いずれも入門書である以上当たり前ですが ・アルゴリズムの数学的なところはすっとばし ・実務の前処理地獄はこんなもんじゃない ・この本の内容ができる程度で「AI人材」を名乗るな
まず松尾豊の研究室から 論文とデータサイエンティストが生まれてから 本を出せや
現在、AI事業が流行ってるわけではなく、AI事業を育成するための事業が流行中。 実績?わらわら。
>>494 若干スレ違いとも思うけど検定の多重性問題だね
ロジカルに考えると分かると思うよ
例えば3学級A, B, Cの算数の試験で、学級Cは他学級よりも優秀か調べたい
つまり (C > A) AND (C > B) を調べたい
検定としては(A = C) OR (B = C)を帰無仮説としてこれを棄却したい
棄却域をそれぞれ5%とすると、5%の可能性で(A = C)がFalse, (B = C)がFalseとなる
(A = C)と(B = C)の両方がFalseにならない限り、(A = C) OR (B = C)はFalseにならない
この場合はA = Cを帰無仮説とした検定とB = Cを帰無仮説とした検定の2つを行って良い
別のケースで、学級Aあるいは学級Bが学級Cよりも優秀か調べたい場合を考える
つまり (A > C) OR (B > C) を調べたい
検定としては(A = C) AND (B = C)を棄却したい
上記同様に棄却域をそれぞれ5%とすると、5%の可能性で(A = C)がFalse, (B = C)がFalseとなる
(A = C)と(B = C)のどちらかがFalseになると(A = C) AND (B = C)はFalseになってしまう
つまり棄却されやすくなってしまっているので有意水準を調整する必要がある
>>496 この本見たけど初心者には訳わからんし上級者には役に立たなさそうで何とも惜しい感じがした
>>502 流体の境界条件・初期条件に対する流体の解析処理結果を学習データとして使用すれば、それをもとに自動的に流体のアニメーションを生成してくれるものができるはずって意味です
今までの流体解析はスーパーコンピュータ使ったりしてすごくコスト高かったけどAI使えば低スペックPCでもよりリアルな流体表現ができるよねって話
>>501 出したい結論次第ということか
あと質問なんだけど、
前者の帰無仮説の(A=C)と(B=C)をそれぞれ棄却域5%で検定したら
全体では棄却域1-(1-0.05)*(1-0.05)=9.75%で検定したことになりませんか?
>>505 前者は(A=C)の検定と(B=C)の検定を合わせて全体でという考え方はしない
帰無仮説の説明からしたほうが良さそう
「Aの平均とBの平均は異なる」を検証するのに、わざわざ帰無仮説として
「Aの平均とBの平均は同じである(A = B)」という仮説をするのか?
それは「同じである」ことはケースとして1ケースしかないが
同じでないことはケースが無限に存在し検証ができない
「平均が同じ」という仮説を立てることで、現在発生している状況が
どのくらい起こりにくいことなのかを計算することができる
後者の(A = B) AND (B = C)は書き直せばA = B = Cで
これはケースとしては1ケースしかないので帰無仮説として利用可能である
しかし前者の(A = B) OR (B = C)は、片方を満たせばもう片方は無限のケースを許してしまい
これは帰無仮説として設定しても計算できない
大元の質問に戻って、ABCの3水準がある場合にCの検定をする必要がないのでは?
という質問については、帰無仮説として「A=B=C」が設定できないのであれば
当然多重比較検定の前提条件を満たしていない
>今までの流体解析はスーパーコンピュータ使ったりしてすごくコスト高かったけどAI使えば低スペックPCでもよりリアルな流体表現ができるよねって話 ありえねーわ。 微分方程式の数値解求めるアルゴリズムと 補間曲線フィッティングするアルゴリズムは目的も用途も別。 ちなみにCAEとAIは相性自体は良い。 CAEはデータを無限に生成できるからな。 昔からアンテナシミュレーションソフトに最適化っていう機能あって 古い機械学習アルゴリズムがついていたりした。
>>506 同時にfalse positiveが発生しない限り間違って棄却されないから問題ないってことか
>>507 AIを使った流体のCG表現が不可能である理由はなに?
人間には手書きで流体のアニメーションを書けたりするけどAIには無理ってこと?
>>509 今ゲーム業界はレイトレーシングだなんだと騒いでるけどこの技術が確立されたらより現実と見分けがつかないグラフィックのゲームとかできそうだね
sim2realとか使って荒いシミュレーションで大雑把なグラフィックを作ってAIでリアルに仕上げたりできそうだね
今の機械学習では仮説形成と演繹ができないと言われているが 仮説と演繹と帰納を識別できる判別器を作れないものなの?
分類としては3つしかないけど難しそうだね --(帰納)-->(仮説)--(演繹)--> ループとかも問題になりそう ニワトリ → 判別機 → 卵の演繹です! 卵 → 判別機 → ニワトリの演繹です!
>>514 ニューラルネット自体が関数近似器でしか無いから根本的に厳しいような気もする
その手のことは組合せ爆発を伴うから 機械学習で連続的な取り扱いで楽することが流行っとるわけよ。
というか演繹って機械学習と真逆の考えだからなあ 出発点の事実から論理をどう組み上げるかだから学習の余地は無くて、組合せ最適化あたりだろうか
学習した識別器をつかって答えを予測することは演繹とは少し違うのかな そこら辺の概念的なことをよく理解できていない
バックプロパゲーションについて勉強してます
https://qiita.com/43x2/items/50b55623c890564f1893 このページの式13.14.15に突然yって出てくるんですがこれはどういういみですか?
何故ここでyが出てくるのかわかりません
どなたかわかりやすく教えていただけないでしょうか?
>>521 (9)式の y のことだよ。(10)式の微分を考えると出てくる。
初歩的な質問で申し訳ないのですが 2値分類の評価指標に関して教えて下さい accuracyはデータが偏ってる場合には適さないという理由は理解できました データの割合が均等な場合(正常50% 異常50%)の場合でもaccuracyは評価に適していないのでしょうか?
>>524 例えば犬と猫の写真があって
犬の写真を犬と判断 TP
犬の写真を猫と判断 TN
猫の写真を猫と判断 FP
猫の写真を犬と判断 FN
Acc = (TP+TN)/(TP+TN+FP+FN)
だから、TPとTNは式の形から全く等価
犬を猫と判断しまくってもOKなの?
あなたのやりたいことがOKなら使ってもいいし
NGなら別の指標
思いっきりミスってた こういうのは犬とか猫より正常、異常のが間違いがないな 正常な写真をX枚、正常を正常と判断する確率をα 異常な写真をY枚、異常を異常と判断する確率をβ とすると、それぞれの枚数は TP = αX TN = βY FN = (1-α)X FP = (1-β)Y Acc = (αX + βY) / (X + Y) 仮にXとYが同じ枚数ならX=Yとして(α+β)/2 偏りがなければ使っても良いかといえば、αとβを等価に扱って良ければOKだし、等価に扱えないなら別の指標
>>526 とても分かりやすい説明ありがとうございます
正答率は説明頂いた特徴があり、それでも参考書や記事などで正答率を算出する事が多いのは単純に説明がしやすいからでしょうか?
タスクとエラーのリスクに応じて個々で検討すべき事柄だから 大体は省略されてる
機械学習にしろディープラーニングにしろデータを元に「学習」するわけじゃないですか でその「学習した結果」に新しいデータを通すとそのデータに対応する答えを「結果」が弾き出しますよね このときの「結果」って一体なんなんでしょうか。小人さんがマシンの中にいるわけでもなし パラメータがx1x2...xnってあったときに結果としてf(x1, x2,....xn)な関数が生成されるみたいな理解でいいんでしょうか? もしそうならその関数が実際どんな数式?なのか見る術はありますか?kerasで勉強しています
一回単純なモデルでいいからライブラリ使わずに実装してみるといいよ
あー、今日も仕事終わった だりィ、 データ分析やらせろボケ上司! 書類仕事はイャダ−!
データ見せる為のWebUI作ってる。書類よりはマシだな
>>529 簡単な最小二乗法を試してみるといい
エクセルでできるから
AI人材って普通に理系なだけだな 騒ぐほどのモンではないと思うけど、文系を引きずり下ろせるチャンスなわけだ
データサイエンスで経営戦略方面から射撃 AIエンジニアリングで花形現場からの射撃で十字放火や
それを安く使い捨てたいから文系様がAI人材量産計画を叫んでいるのが現状
>>529 イメージとしては間違ってないと思う
kerasならmodel.layer[i].get_weights()で重み取れるから見ることはできるけど意味はないかな
AND OR XORくらいなら重み見て頑張れないこともないが
パーセプトロンの勉強してる 分類問題なら出力層は当然その分類する項目の数になるだろうとは思うのね。0から4を判別するのに学習データのラベルが[0 0 1 0 0]みたいな んで回帰問題の出力層のノードが複数になるケースってある?住宅価格予想みたいに答が一つに定まるのが回帰問題だから当然出力層はノード一つだよなとか思ってたんだけど なんかそうじゃないっぽい?
>>543 勉強にお勧めの書籍やサイトはありますか?
>>545 株価予想って機械学習で一般人でできるのかね
どれだけ質のいい情報が入手できるかのほうが重要そう
トランプのツイッターが原因で中国の株が乱高下してても中国の個人投資家はなんで相場が動いてるのか分からんかったとかいう話聞いたし
株価って突発的な出来事の影響が大きそうだし予想できるもんなんかね
>>543 銀行1の株価、銀行2の株価、とか?
同じ業種の株価は連動するから、入力も出力もグループ化するよ
>>545 個人でも儲かる方法はあるよ
詳細は言わないけど、どうしても大手とは違うやり方になる
>>546 中国株触るのにトランプの動向チェックしないなんてありえないから
たぶん中華投資家は情報統制食らってるんじゃないかな。
>>547 予想というより結果を大事にする
ボラティリティ(分散)はGARCHでかなり上手くモデルに当てはまる
ボラティリティが予想できるなら、オプションで儲けられるはずだけど、そもそものオプション価格がそれを見越した価格設定がされていて手数料負けする
なので違うやり方になる
株価自身の予想は統計的には予想できないことになっている
でも、儲ける方法はある
こんな感じ?
株価は短期なら意外と当たるんだが、 たまに来る、予想と違う方向へどかんと動いて固定 これが怖い。大体これにやられて退場する人が多い 最近だとリーマンショックとか。
あまり儲からないけど、ほぼ確実なのは鞘どりだね 連動する株価を反対売買する これは機械学習するまでもなく従来の時系列データ解析で十分できるけど、今なら機械学習で簡単にできるよ この方法は手数料がとにかく安くなるようにするのがポイント
>>549 中国国内からは通常の方法ではtwitterとかgoogleとかyoutubeとかは見られないらしいよ
機械学習で株価って、ずいぶん前からやられていることだから 結果については、その人の力量次第
>>558 株であれば会員業者
為替は取引業者じゃないと
手数料の関係で儲けるのは大変難しい
>>543 出力5通りしかないなら3bit出力でもいけるはず
2進数表現は分散表現だから個々のbitに意味がない限りone-hotの方がいい
>>564 鞘どりと同じで枚数を多く買って微調整が必要だから手数料負けする
デルタヘッジは相場が動けば儲かるように書かれてるけど、実際にやると始値終値で仕掛けない限り理想の価格で買えない
あとデルタ調整を毎日できるマメな性格と、急激に動いた時に即座に対応できる暇人の能力が必要になる
>>565 なるほど。
>実際にやると始値終値で仕掛けない限り理想の価格で買えない
この視点は完全に抜けてたわ。
>>566 俺は違う考え方。
予測と売買手法はペアで考えるべきと思います。
というか関係深いので、
予測手法と売買手法の
適切な組み合わせを
模索すべきでしょう。
使ってるデータも予測手法も明らかにしてないのに
始値と終値が理想と言われても
ピンときません。
板情報も予測に含めるのは、出来たらいいけどデータ集めが無理そう
ステップ関数で閾値を超えたら1超えなかったら0 閾値を移行して+b=-thresholdでバイアスに置き換えると計算楽でなるほどー とか思ってたんだけどさ シグモイドなんかだと断絶してないじゃん。どの値入力されても連続的に出力されて閾値無いじゃんと思うの んで閾値が無いなら上の定義からバイアスも無いんじゃね?って思うんだ バイアスってなんなんだろう閾値じゃないんか
>>568 予測と売買手法はデルタヘッジという言葉に含まれていて分離されているわけではないよ
デルタヘッジは売買手法のことで、ボラが大きくなることを予想した場合にとる手法のこと
理想価格というのは、検証に使った価格と同じ価格で売買できるかという事
少なくとも今はボラティリティーはかなりでかい相場と見ていいだろう。 これでボラティリティー低いとか言ったら安定とはとか思い出すわ。
こんな素人レベルの考えで株価予想できるなら当然世界中の投資家が既にやっていて多額の金が動いている そうすれば上がりそうなら買い、下がりそうなら売りが即座に入るので結果的に株価の変動がほぼなくなる 現状そうはなっていないので誰にもできていないということ
今は予測どうこうより 他人より早く変動をとらえて 差額をかすめ取る方が勝つ だからFPGAが流行る
>正直株価予想興味ない そこだよな 技術者って株やってるやつがそもそも少ないんだわ
>>581 GMO証券が昔やってたけど、プログラマーが業者間アービトラージやりすぎて禁止にしたんだわ
同じUSDJPYでも業者間で開きがあってね、でも基本は同じ価格だから監視して反対売買するだけでノーリスクだったんだ
そしたらシステムの不備をついての取引はなかった事にするって決められて取引ノーカン、待て待てお前らもシステムの不備で個人に損失押し付けてるだろってなって、GMOがめんどくせ、でAPIごと無くなったw
GMO API懐かしい。 なるほど、そんな裏話があったとはw
「手を動かしながら学ぶ ビジネスに活かすデータマイニング」尾崎 隆 禿げてるくせにアイコンではドフサなのなw
これはひどいw
フレーム問題は解決済みというこのブログの62からの書き込みをご覧下さい。
ななしさんvs田方さんの議論が続いているけど
田方さんはひたすらコピペを繰り返すのみw
どちらの意見の方が正しいと思いますか?
https://robomind.co.jp/frameproblem/#comment-519 双方、定義が曖昧で詰め切れてないような 言葉で説明するより、数式化した方が解りやすい議題では?
確かにそんな感じはするよね ナナシさんの方は人間すら解けない一般化フレーム問題について言及してそうだし 田方さんの方は条件が揃えば有限推論にまで落とし込めるレベルまで来てるって話してる 自分はまだ後者すら怪しいと思ってる
ボーナス出たらPC買い替えたいんだけどみんな自宅でどんなPC使ってる? コンペ出てる人とかはモンスタースペックなんだろうか 今使ってるのが下のスペックなんだけどGPU積んでるやつそろそろほしい ノートPC メモリ8G SSD128G
>>589 ゲーミングPCにUbuntu入れてる
Core i7-8700
32GB
RTX-2080Ti
30万円くらいしたけど15万円くらいのノートPCにして残りはクラウドでも良かったかな
colabでタダで使えるGPUが50万ぐらいするやつだから、それ以上の金をつぎ込むかどうしてもオフラインで使えなければならないとかでなければ PCはできるだけ安価にして機械学習の実行はcolab使った方が圧倒的にマシ
seq2seqをrnnではなくcnnでやる論文が出たの、まだ一年前か あまりにも技術の進歩が早すぎて辛い。学習コストが高すぎてプライベートを侵食してる
初歩的な質問ですいませんがAI系の論文てどこで見れるんですか?
>>600 英語なんすね・・・(^_^;)
ありがとうございます
てかクソみたいな日本語解説よりも良い論文てのは読みやすいもんだから。
日本語の論文?で完結する分野あるのかね。歴史、宗教、文学くらいかや
>>605 だとしても前者ふたつは古文書という難関が待っているw
今中国がアメリカ追い越したからアメリカ人は中国語に四苦八苦してるって聞いたが
日本語で書いてあっても読めんとか言うよこういうモンスターは
数学と英語苦手な時点でこの分野はやめた方がいい これまでのIT土方と違ってそれなりに頭は必要な分野
そう 英語と数学は勉強したほうがいいね じゃないと仕事にならんでしょ
プログラマー、ソフトウエアを目指す限り、英文からは逃れられないよ。 そこがクリアできてもIT土方が沢山いるのに。 そもそも何かわからなかった時に、どうやって解決法を見つけてるんだよ。 日本語で間に合ってる? よほど時代遅れの知識だな。
そこそこなアプリ作るのと機械学習ってどっちが難しい?
【速報】クオカード五百円分とすかいらーく優待券をすぐ貰える @ スマホでたいむばんくを入手 A 会員登録を済ませる B マイページへ移動する。 C 招待コード→招待コードを入力する [Rirz Tu](スペース抜き) 今なら更に4日18時までの登録でクオカードとすかいらーく優待券を両方ゲットできます 数分で出来ますのでお試し下さい >>613 機械学習だけやるならそんなに難しくないでしょ
フレームワーク使えば理論知らなくても結果だけはだせるし
基本的にバッチ処理だし
この地味な作業を楽しいと思えるかが重要
今のところPythonのライブラリに データ突っ込むだけで仕事になってしまうからなあ。 今後はそれだけじゃあダメだと思うけどね。 若い人は今のうちに英語と数学を 勉強しておくべきと思いますね。
英語は必要だとは思うがそもそも日本語で十分なところもできてない奴は多い。 そういう意味では英語わからんでも十分。
chainer(笑)のやつか 松尾豊(笑)のやつなら日本語だろ
>>608 アメリカ人に中国語は無理でしょうね…
まず漢字を1万ほど覚えなくちゃならないですから
アメリカだろうと中国だろうとまともに応用されてる機械学習技術なんてそう多くはない。 単純に当たりづらいものに規模で負けてりゃそりゃそうなるわ。
最新の論文を読んでないと仕事にならないとか思い込んでるからなんだよな 人のアイデアをパクってても新しいものは生まれない
大半のエンジニアはパクる能力から発展して新しく生み出す能力を身につけるんだけどな 無から生み出せるのなんて一握りの天才だけなのでそんなのを前提に物事考えてはならない
無から生み出せるなんて 神のみだよ 人は脳の物理的限界を 超えられないんだ サルと同じようなものさ
>>616 >今のところPythonのライブラリに
>データ突っ込むだけで仕事になってしまうからなあ。
将来的には、似たようなことが主流になるだろう。
通常言われる専門の技術者が作ったものは信用されなくなると思う。
信用度の高いものが、パッケージのような形で供給され
それを使うのが一般化してくると思う。
今までの数理技術系と同じ流れになると思うよ。
機械学習の難所は、その突っ込むデータの選定としかるべき前処理かと
その前処理もAIがやるようになるだろうなあ スペシャリストの中のスペシャリスト以外は働けない世の中になりそう
>>632 それはその通りなんだが
AI関係の人はほとんどが、旧来からの分析者に比べると
その辺りを嫌う傾向、および軽視するがあるように見受ける。
データは社内のデータベースにある そこから引っ張るとしてとりあえずSQL文は書けないといけないが AI系の人でまともにデータベースやSQL知ってる人を知らん 画像処理や自然言語処理も知らん コモディティ化した今のディープラーニングなら 理論知らなくても解析できるし その辺理解してるデータエンジニアだけが生き残りそう
>>631 知ったかしてるところ悪いが「数理技術」はそこまで安定したことは一度もない。
機械学習やってる研究者って天才の実装パックてるだけやん。。。 まあ数学者じゃないから仕方ないけどもう少し数学的なとこを考えてほしい
CNTK とか数学的アプローチはある。ただ恐ろしく実用的ではない。
>>636 おそらく言っている意味と、あなたが捉えている意味が異なるんだとおもう。
たとえば、医薬など、学会や国際的な組織に亭主るする際に、この手法は
私があらたにプログラムしましたでは、信用してもらえない。
その論文などのために、みんながデバックしろという話になってしまう。
そやな、閉じた世界なら何でもいいけが信頼性考えるとご免こうむる。 金融の資金運用でも自己資金ならどうでもいいが、預託資金の運用だと 説明責任もあるから、分析などのコアには信頼度の高いもの使う。
AIやってて画像処理も自然言語処理も知らないって何やってた人なのだろうか
考えたら機械学習でPython利用が多いというのも、流用できるからが多いわけだから、このの世界も次第にそうなって行くだろ。業務と手法のインターフェースに成れる人、あるいは、商用パッケージ作る人以外は職が難しくなるかもまだ先だろうけど。
>>641 AIで画像処理中心は今に始まった話だからね
ベイジアン最適化は学習を自動化させる目的で使われてるよ
東大は松尾豊も 叔父さまのコネで 東大の教授になったのね なんであの馬鹿たれが 異常に若くて教授になれたのか 不思議だったんだ
>>639 実際問題信頼できる統計計算なんて回帰分析ぐらいのもので、
random forest系統、deep learning 系統など少しでも複雑な手法の場合、
安定した実装なんてものは未だかつてない。
ただ有名どころを使ってまっせってアピールが蔓延っただけで
その種の業界の信頼度が揺らぎまくったというのがここ数年の流れだろう。
何かを発見する際の手法としては使われてても
何かを保証するツールとしてはまだ全然だし、もしかしたら原理的に無理、もしくは不可能の可能性は結構ある。
なれるだろ iPSでなんかやらかした人も東大教授(准教授だったか?)だし 特に機械学習なんて日本のレベル低すぎてどんぐりの背比べなんだから コネにならない方がおかしいわ
松尾さんって人まともな論文出してるの 日本でヒントン氏レベルの扱いなんだが
>>652 最低限の実力(外部資金獲得)があること
他に同じ研究をしている人が学内にいないこと
コネはないよりあった方がいい
論文はあればいいが、最近の大学はどこも金がないから産学連携を前面に出せる人を欲している
>>654 東大で教授まで来ると研究時間はほとんど取れないから、研究方面での活躍は余程いい弟子が来ない限り難しいだろう
>>655 工学部の事情はしらんが、そんな当たり前のことは聞いていない
>>656 研究できないって訳がわからない
最高学府のAI研究室だよ?
>>639 こういうプログラムを書いたことのない馬鹿ばっかり
>>658 こればっかりはもう、本当に情けない話だが事実だ
研究時間が取れるのはせいぜい准教授までだ
優秀な弟子を育てるためのフレームワークを組むのが彼の仕事だと私は思うが、責めるべきはそこじゃないかね
Geoffrey Hintonはlast authorが多いけどfirst authorが今でもある 一方、松尾は無い 松尾の研究室からでる論文は東大のわりにショボい 誰の意向か分からんが 日本でのai広報担当ポジを得てる
>>661 First Authorについては70歳を超えて学内事務など皆無の爺ちゃんと比較するのはフェアではないな
比較するならLeCunだろう
それより二つ目の件がむしろ問題だな
良質な論文を量産できる環境構築を早急に行うべきだ
東大はとにかく学生指導を甘く考えている
日本でAIで金引っ張ってくるのが上手いやつは詐欺師しか見たことない。
>>662 松尾研がしょぼいのは
環境がしょぼいからじゃないだろ
あれで環境がしょぼいなら
東大より下の研究室はショボくて当然ということになる
松尾はnvidiaやベンチャーとも組んでて
あれは環境のせいじゃない
>>663 そいつらのせいで第三次AIブームも終わりそうだしな
データがない奴らが騒ぎ立てて結果出ませんってそりゃそうだろうと
>>664 環境とはハードウェアがすごいとか予算が潤沢とか意味じゃない
>>662 松尾自身が論文書くことを捨てて
マスコミに出て有頂天なんだよ
ただの馬鹿だろ?
金儲けも大事なのは事実だけど常に最優先事項であるとは限らないのにこんなこと言ってるしな
ディープラーニングは儲けてなんぼ! エンドユーザの付加価値を考えろ!松尾豊氏
http://ainow.ai/2019/06/08/171682/ > ディープラーニングは事例は増えているがビジネスになっていない そりゃそうだ. アホ学者どもがワンサカ群がってきて 無理矢理事例を作ってる。 実は表に出ないだけで すごくビジネスになってる。 金も動いてる。 今の景気を支えてるのはAIビジネス だからね。
ビジネスになってないのはすごく感じる TensorFlowのサンプルをコピーしただけの 監視カメラの画像認識サービスの多さは酷い こんなのを売り物にしようとしてるのは詐欺に近い
監視カメラ関連で内製する求人もここ数ヶ月で3件は見たよ。
だって品質あげても苦労が多いだけで給料上がらないじゃん。 下手したら更に安い金で更に工数のかかる精度を要求されるようになるし。 査定精度の低いところがこういうことに手を出すのがそもそも間違いなんだよ。
要件定義怪しそうw 従来型ITって仕事でも要件定義怪しいの沢山あるもんね
従来のSIer的な要件定義は基本無理。 だから機械学習を本番運用するのは難しいんだよ。 精度策定で結局嫌になってアリバイ作業に徹するようになる人は本当に多い。
精度が要件になってたらアウトだしな やってみないとわからないし 一回でも下回ったらアウトなのか 精度でなかったらどうするのか ビジネスになる訳がない
機械学習に限らず特にIT業界においては「作ったものを売って終わり」というタイプのビジネスは確実に減少を続ける とは言え、継続的に開発を続ける形式の契約を他社と結ぶのは面倒なので大企業でも内製が増えている これまで大企業で内製があまり行われなかったのは「IT=社内システム開発」で一旦完成すれば開発要員はほぼ不要になるので正規雇用などできなかったから 今はむしろ「IT=本業」なので常に案件が存在するので直接雇用してあれもこれもやらせた方が効率的となる だから従来式のSIerが今のような規模では存続不可能と散々言われている
>>651 >>実際問題信頼できる統計計算なんて回帰分析ぐらいのもので
これすんごいそう思う。
なので、この分野で日本はまだきのこれるんじゃないかと妄想してる
回帰分析といってもモデルの選択肢を一般化線形モデルにまで広げてみれば山ほどの可能性があり、 その中でどういった実装を行うかは解析の経験値やドメイン知識に有無に大きく依存するわけで 「安定した実装」が何を指すかは不明確だけど、「この手順通りにやればOK」みたいなものを求めているならそんなものはない
ここで一般化線形モデルまで行くのか? ちょっと極端すぎね?
多くの人は単回帰や重回帰のことを指して回帰分析と呼ぶがこれらは一般化線形モデルの中で様々な条件を仮定したものにすぎない もちろんそれらの仮定が分析対象にとって妥当なものなら何の問題もないが、最低限の数学や統計学が分からないと妥当性など判断できないはずなのに そんな知識のない人が何となく単回帰・重回帰で直線・曲線を引いてみて何となくフィットしてるのを見せてドヤ顔している例が多い
>回帰分析といってもモデルの選択肢を一般化線形モデルにまで広げてみれば山ほどの可能性があり、 >その中でどういった実装を行うかは解析の経験値やドメイン知識に有無に大きく依存するわけで >「安定した実装」が何を指すかは不明確だけど、「この手順通りにやればOK」みたいなものを求めているならそんなものはない こういうめんどくさい人が登場してあれこれ言うことも含めて安定しないので普通の回帰にしとけと。
統計モデルなら実データとどのくらい分布や分散が一致してるのか調べられる
現実問題として回帰モデル以上のモデルを準備しても 過学習するだけだからな
>>682 普通の回帰って何のことか分からないけど内部的に最小二乗近似してるなら誤差分布が正規分布でないのに使ったら明確に間違いだぞ
>>685 誤差分布が正規分布ではない分布に従うモデルのことを一般化線形モデルと言います
ちなみに正規分布に従うものを一般線形モデルと言います
自由の女神ほどのナイス日本語訳まで行かなくてもいいが、もうちょい訳語考えろと言いたい
>>681 なんとなく単回帰・重回帰でドヤ顔する人と
一般化線形分析で謎のハイパーパラメータ持ち出してドヤ顔する人の区別がつきません
回帰なんて今や面倒なこと考えずにニューラルネットにぶち込むだけだと思うんだが
間違いだらけのことをどや顔で臆面なく言っちゃうのがこのスレのレベル
>>689 そういう局面はあるだろうけど、本気でそう考えているなら恐ろしい
別に回帰しかやってなくても 精度出てればそれでも良いと思うし 統計がなんでもかんでも悪いとは思わないが それを「ブラックボックスだ」とか「信用出来ない」とか 「人間より優秀とは思えない」とか「責任誰がとるんだ」とか 言って欲しくないな 人間がやってそれ以上の精度出るのか?とか間違わないか?とかスピードは?とか 考えると「ブラックボックス(実際はそうじゃないが)」で良いと思う
美国は文脈的に的外れだからどうでも良い 合州国じゃなくて合衆国を選んだのが迷訳っていう意味だし
>>698 アカデミックの人かな?
ビジネスの領域ではそんなこと言ってられないのよ
機械学習初心者なのですがディープラーニング以外の機械学習って覚える必要ありますか?手法が無限にありすぎて覚えられないです。
>>703 何がやりたいかによるかな
覚えるという言葉から察するに応用したいんだと思うけどkeras使ってfit回すのと、scikit-learn使ってfit回すのでは、ソースコードは殆ど同じように思う
そういう意味では、やりたい事と手法のマッピングをすることに意味があって、その手法がDeep Learningだろうがそうでなかろうが、あまり意味がないと思う
統計モデリングは少し腰を落ち着かせて勉強しないと身につかないので、世の中のデータサイエンティストでも活用できている人は少ないのではないかと思う
>>703 今のところ必要ないと思う
今一番成果が出てる手法だけを使うべき
統計モデルについてはこの動画の説明が分かりやすいからこれ見ろ
VIDEO >>703 実用を考えるとディープラーニングができるほど綺麗なデータが大量に使えることってあまりないからむしろ他の機械学習手法の方を知っていると強い
楽しくはない。 機械学習はあくまでもサブ技術。 メインに専攻すべきではない。
>>712 大好き!楽しい!
統計学の勉強も楽しい!
現在、統計学の応用の5本目の
論文書いてるところ。
ただ、仕事から帰って書いてるだから
時間足りなさすぎ!
そろそろ論文もAIが書くよ てか生成系のモデル悪用の将来はいかに
論文はAIが書き、人間はアノテーション作業に明け暮れるのであった。
アノテーションって転移学習とかで自動化出来そうで出来ないな
ソフトバンクの社外取締役っていくらもらえるんだろう。。。 1億円くらい?
そん正義が連れてきたインド人役員は 100億円もらってたんだよね ま、インド人だから高いのよ 中国人も高い 次は韓国人 奴隷は日本人 在日ならソフトバンクに 行けばいいよ 韓国名で応募してね! 仕事は通名(日本名)でOk
ソフトバンクの社内役員は基本的に1億円。孫正義も同額で全額被災者に寄付を続けている。 他にストックオプションなども有るだろうけど。
>>724 へー本当に寄付してんだ
口先だけかと思ってたよ
で、どこに寄付してんの?
>>726 たくさん作ってるじゃん。 サウジのやつは没になったけど。 国内では最大手に近いんじゃないのか?
メガソーラーは1都道府県ごとに事業会社を設立して運営する考え。仮に20メガワット規模 の発電所が1年間稼働して売電すると、売上高は8億円規模になるという。国の規制で実現 していない発電した電力の全量買い取りや電力会社が持つ送電網との接続などが事業成立 の条件で課題は山積みだ。また発電事業とは別に埼玉県や神奈川県など地方自治体と 自然エネルギーの普及促進へ政策提言する団体「自然エネルギー協議会」も設立する。
機械学習って色んな手法あるけどみんなどれも覚えてるもんなの? 参考書やってて種類多すぎてどのケースでどれ使えばいいのかすら分からん
Colaboratoryで巨大なデータセット扱うおすすめの方法を教えてください 自宅にwebサーバー建ててColaboratoryからwgetしてみたのですが、40Gあるのでアップだけで2時間、展開で1時間とか効率悪すぎて泣けてきます Googleドライブ有料版をマウントして使ってみたのですが、何か1日の転送量最大値があるのかファイルが破損してしまいます 何かいいアイデアください!
>>737 まあ、回線も遅いですが他の方法でアップしなくてもいい方法とかないかなと
>>738 aria2てので並列ダウンロードしてみます!
うーん、Google側が細いのか最大で10MB/s位しかでないですね
当たり前じゃん? どんだけの人がアクセスしとると思ってる?
https://hazm.at/mox/machine-learning/computer-vision/classification/keras-provided-cnn/index.html これって
loss 順調に下がって下がり止まって,
acc 順調に上がって上がりきっても
val_loss val_acc 安定していないけど最終的に収束してて驚く
この不安定な val_loss val_acc だけど学習続けたのは,
loss acc が安定していたからなのかな?
いつ収束するかわからないまま学習続けるとか狂気の沙汰な気がする・・・
いや loss acc が安定していれば val_loss val_acc が不安定でも収束に向かうのか知りたい 発散してるように見えても大丈夫なのかなと
gpt-2もマスクがバックにいるから 大袈裟に盛ってるんだろうなと思う
valdation accuracyが0.3位で動かなくなっちゃった
他の方法はモデルの変更とか、オプティマイザの変更とかでしょうか データ量はもう増やせそうにないです
画像分類です 650種類で、各200枚ほどの教師データです
指摘できる可能性が多過ぎて情報小出しにするのやめろ
すみません 小出しにしているつもりはないのですが 初学すぎて何を出すべきなのかもわかりません 単純な各200画像分類を10クラスで学習して十分な精度が得られました 30クラスでも十分な精度が得られました なので600まで増やしてみました Keras で tf をラップし、 オプティマイザはAdam modelはxceptionで108層までフリーズさせています
機械学習の教師データの意味が分からないのですが、入力データを教師データに近づけて行くのが学習ということであってますか?それとも教師データは学習時の正確性を図るためだけのものなのでしょうか?質問が拙くて申し訳ありません。
>>757 650種で各200だと?
どういう物の判別か知らんけど
絶対に無理だと思う。
俺の経験から言うと
最低でもその10倍以上は必要と思う。
種類が多いからね。
この世界に存在しない人物の画像をワンタッチで簡単に生成できる「This person does not exist」
https://gigazine.net/news/20190217-this-person-does-not-exist/ これって、用意された画像をランダムに表示しているだけですか?
それとも、更新する度に一瞬で生成しているの?
ビジネスで使うデータ分析って何? t検定、カイ2乗検定、主成分分析、、、?
>>764 わざわざ返信ありがとうございます
https://www.flowername.sint.ai/ ここは花ですが、
257クラスで10000枚1クラスあたり約40枚でそれなりの精度が得られているみたいです
これは特殊な例なのでしょうか
>>767 どれもよく使うけど主成分分析が多いイメージがある
>>768 使う手法によると思うなぁ
適当なニューラルネットワークで精度上げるならやはりデータ量が決め手だとおもう
データ量が少ない状態で精度あげるには、ネットワークの選定やパラメータの調整がしんどいと思う
ケースによる ベイズ統計が大はやりの現状を見たらフィッシャー先生大激怒?
有意水準5%の検定を行うとして5%ラインを僅かでも上回るならOK、僅かでも下回るならNGというような極端な使い方をせずにあくまで判断の目安にするだけならいいが、このような極端な使い方が割と蔓延している
>>767 分析方法じゃないけど
客に見せるのはヒストグラム、
散布図、折れ線グラフが多い。
簡単な図で一目で「なるほど!」
と客に思わせるようにしなければならない。
そこが腕の見せどころ。
DLやR―Forestやら、SEMやらの
難しい方法は、
客が?で次の仕事無くなるので、
どうしても必要なときしか使わないようにしてる。
>>774 p値論争あったねぇ
これまでp値で論文を書いてきた人たちには、p値はそこまで信頼できない事実に薄々気づいてたけど、ハッキリと宣言されて受け入れられない人は多いんじゃなかろうか
H0: とりあえずp値を信頼することにする
p値が信頼できるかどうかを、帰無仮説にしてしまおう
>>778 何にも知らないなら黙っておいた方がいいよ
>>780 何かを知ってるなら情報を出しなよ
現代の使い方、というか現場におけるp値の使い方のヤバさは現場ほどよく知ってるだろ
統計的な有意差を出すための様々な悪しき風習があるのも知らない理論屋さんかな?
テクニカルタームとか三文字アルファベットを振り回すバカが多いのは どうにかならないもんかね
プログラム板にキチガイ降臨中!botに一晩も反応する異常さ
一般人(学校恩師)に殺害予告をしているのでスレ建て通報してください。
http://2chb.net/r/tech/1559872586/ 142 名前:a4 ◆700L1Efzuv 投稿日:2019/06/18(火) 05:29:55 ID://qVkzO
>>141 名古屋の人な 俺ね、君の問題を大橋先生と混ぜないことにする。つまりね、
片桐孝洋のことをボコろうと思う。普通に顎の骨を折る。これくらいで警察来るか?
一般市民とかさ、普通にさ、俺らの秘密なんだけどさ、日本人なんて復活ねーから。
>>785 サンクス
へー共分散構造解析か
人文系で頻出なの?
逮捕されたNHKのチーフプロデューサーって AIってなんだのひとか
自然言語処理最大の課題、意味理解は感情を中心に整理すれば解決するは本当ですか?
教えて!いろはちゃん
〜AIはどうやって言葉の意味を理解するの?〜
https://robomind.co.jp/irohachan2/ 自然言語処理って、ビジネスになるのは感情分析と翻訳ぐらいかな 文書生成って実用まだ無理だろたぶん
>>790 議事録自動起こしはビジネスベースに乗りそうなレベルまで来た
大した内容じゃないのに 3〜4文字で略すやつ多すぎ
AIが感情理解するようになってもロクなことなさそう 泳げたい焼きクンみたいに逃げ出したり パヨクみたいに賃上げ要求したり チョンみたいに賠償請求したりしそう
794みたいなバカだったらAIの賃金あげるほうがマシだな。
>>794 2行目以降に書いてあることは感情が理解できることと直接関係ないじゃん
>>792 あんまり知らなかったけど、文章要約もそこまでできるのって感じでちょっとびっくりした
>>159 まさか、そんな連中は真っ先にリストラされてるよ。 まだ生き残ってるのがいるのは否定しないが。
そんなこと言ったら、70すぎ現役の俺はどうなるんだ? プログラム書いて年間 1000万円はもらってるぞ。 記憶力が衰えてきたのは自覚してるが、それはツールでカバーしてる。
>>160 松尾豊、Eテレでは見てたが、今日ソフトバンクGの取締役に選任されたな。
ソフトバンクG の、AI への思い入れがわかる。
有名人が言った事には従う日本人心理を活かしたSB流じゃね。
ソフトバンクは使えないと分かったらすぐに来られる外資的な要素が強いと思うのだが、その辺りどうなんだろ
社内ニートになるには実績積んどかないと、切られるわな。 富士通みたいにダラダラと雇用しないでしょ
>>5 誰かに雇われて仕事というか、こういうもん構築したら他に公開したくないだろ。
俺だって競馬のデータマイニングと予想プログラム自作してわざわざ外部に売り込もうなんて思わない。
2の仕事もGかAのクラウドの機能をどう使うか、こんな新機能来ました〜、みたいな仕事で技術の仕事なのか怪しくなって来たね。 エッジかロボティクスに行くかな
>>797 強いAIを発明したら間違いなくノーベル賞もの
頑張れ!
>>810 応援ありがとう!
俺の作ったAIが人類の90%を
殺したのを見届けたぐらいで、
俺は死ぬことにするよ!
>>724 昨日見たらみんな結構もらってた。
社外取締役の報酬は低いけど、2500万円位
正式なSBGの取締役は平均3億。
孫社長が一番低くて、1.4億。
グループ内の取締役としては、大体10億〜12億。
だが、一番もらってる人が株の分まで合わせると30億(うち現金は3億のみ) だが、これはSBGの取締役としてではなく、Softbank Inc の報酬。
SBG の取締役報酬の平均は3億円。
>>723 その人は別の会社に移ったけどそこでもそれ以上もらってるらしいよ。 優秀な人間は引き抜き合戦だから高級になる。
>>804 社外取締役の報酬は安いから宣伝費と考えれば安い物では。
>>765 画像生成だけなら普通の環境を使ってリアルタイムで可能。
これはStyleGANとかBigGANとか呼ばれているNvidiaの研究者が発表したモデルを使用してる。
StyleGANの最大の特徴は高解像度の画像を生成できること。
このためには学習用の画像データも高解像度のものが必要で機械学習の実行には最低TPUv3 x1024というとんでもない環境が必要となる。
ただし、3ヶ月くらい前に誰かが、最低8GPUでもStyleGANの学習の実行可能にした新しいアルゴリムを発表してた。
StyleGANの最大の問題は、1024とかそれよりももっと大きな画像データを使って機械学習をさせる必要があるため
通常の環境だとメモリが足りなくなり、実行できなくなること。
そのため、普通のGANではしないような複雑なメモリ管理を行うか、スパコン並みの資源を用意する必要があること。
>>818 高解像度っていうとprogressive GANが頭に浮かぶんだけどもう古いのかな
アノテーション代行会社が増えてるけど、ああいうトコって手作業でやってんの? ABEJAが自動化に成功したとかの記事を見たような気がするけど
皆さんこんばんは。 画像から特殊な現象の輪郭を描写したいのですが、比較的シンプルにするにはpix2pix以外にいいものありますでしょうか。 よろしくお願い致します。
>>823 ソーベルフィルタとかでいいんじゃない?
>>819 StyleGAN/BigGAN(LargeScaleGAN)/ProgressiveGANはほとんど同じ意味
論文発表があるごとに執筆者が別の呼び方をしてる。
BigGANは膨大なGPU資源を使用するためNvidiaやGoogleなどの資金が潤沢な一部の研究者しか手が出ない。
そのため、論文発表は多くはなく用語の統一は進まないことが複数の名称がでてくる要因になってるかも
>>821 ラベリングが自動的にできる位なら、そもそも機械学習は必要ない。
機械学習が必要な限り、手作業によるラベリングは必ず発生する。
その意味でアノテーションとかラベリングは機械学習の要で、最近になり中国やインドの業者が増えてきてる。
ただし、ラベリングは車載カメラの映像から自動車を選ぶとか誰でもできるものと、
胸部レントゲン写真から腫瘍部分を選ぶとか高度な専門教育を受けた者でしかできない仕事に分けられる。
現在、中国とかインドの業者に発注する場合、単価は下限で時給1ドルくらいとなっている。
一方、イスラエルの企業が開発した胸部レントゲン写真の自動診断システムのラベリングは時給80ドルで
専門医10名くらいを雇用し、数百万枚の写真を8年くらいかけて分類したとかその企業が発表してた。
また、Googleが運用を開始したGoogle Duplexの場合、AIが認識できないケースが全体の30%とかに
達しており、AIが対応できなかったケースは、個別に専任のオペレーターがマニュアル対応してそのデータを
元の機械学習データにフィードバックさせるような非常に手間と金をかけることをやってる。
同じケースはAlexaでも発生しており、Alexaの場合、AIが認識できなかった音声を個別に人間がテキスト化して元の学習データに戻している。
このパターンで最も複雑な処理を実装化しているのがTeslaで、Teslaは自動運転モードで走行している
にかかわりなく、全自動車の走行時に取得したセンサーデータを毎日、センターコンピューターに吸い上げて
AIの精度を向上させている。
>>824 通常のフィルタでは似たような形状が多くて誤認識が多いんです。
位置関係が変わると全然ダメですし。
アノテーション作業の機械に使われてる感はなんか半端ないぞ
>>818 つまり、学習は大変で時間がかかるが
学習が終わったら、簡単に生成できるのですよね。
生成される画像は何通りくらいあるのだろうか?
>>821 ABEJAはどうみても
流行りのAI詐欺企業だよ。
AIを売りにして莫大な上場利益を
得ようとしてる。
俺の知人も機械学習で上場目指してるが
社員が集まらないので、
怪しいアジア系留学生を
多く社員として採用してる。
その人たち仕事ゼロ。
赤字でも上場すれば莫大な利益だと
知人が豪語してる。
おれもやろうかと思ってる。
100億円ほど儲かったら
会社を売ればいいだけ。
あといろんな法律があるけど
全て抜け道あるとのこと。
上場は資金調達の一手段でしかないのに上場自体をゴールにして大儲けしてやろうなどと考えている会社に近付いてはいけない 上場して集めた資金で具体的に何をしたいのかを事細かに説明できない経営者ならば無視してよい 上場するなら東証一部じゃなきゃダメ、とか言ってる奴は上場をゴールにしちゃう典型的なタイプ
ITバブル()の時に蔓延した上場詐欺がここに来てまた復活か いつの時代も日本は変わらんな
いきなり一部上場したのSBくらいじゃね? 詐欺で基準超えられたらスゴイ
AIで実用的な技術作るのはまだまだ難しいよね Googleやamazonクラスの資金と人材があってなんとかできるレベル 日本のベンチャーでは何もできんと思う
日本のベンチャーって たんなるデータ分析の下請け。 製品開発というレべルじゃないよ。 公開されてるソースコードを 集めて製品にしてるのが海外のAI企業の実態 日本はそこまでさえもいってない
>>826 病院とかで診断する時に行われている
それを機械学習の目的で使えるかどうか
法律とか患者の許可とか報酬や費用をどうするか
>>842 そゆ批判してるクズは
ベンチャーのクズ社員と決まってる
少しは機械学習を勉強しようねクソチョンのクズ社員くん
>>842 映画、音楽、開国、文学、科学
全て外国と比べる奴が居るし
>>839 そんなにある?学生じゃないけど
ゆうちょ、SB、アルヒ
くらいしか分かんないわ
ジャスダックも2部も経由せずに一部上場ぶち上げるとか流石にないやろ〜と思ってな
海外云々とか言ったら 海外は機械学習だけじゃないからなぁ… 日本はなぜか機械学習だけが猛烈にプッシュされてるけど(研究水準低いくせに)
>>848 海外はなんか違うのやってるの?
教えて!
>>841 AI を使っても最終判断は医師が行い全ての責任を医師におっかぶせるから平気。
自動運転なのにハンドルを握っとれと言うのと同じ。
国内の詐欺AI企業から海外に話がそれてよかったね。
>>851 AIが責任追うのか、医師の免許が必要だな
>>853 AI はペーパーテストはできるだろうけど、実習は難しそうだな。 人型ロボットが必要だな。
AIのベンチャー企業って パチンコ屋が出資してることが多いと聞く。 ここ20年ほどパチンコ屋は 脱税した金をITに投資してる クソチョン損正義の真似だ
>>851 役割分担すればいいのでは
現状でも放射線技師や放射線科医と
主治医や担当医がいるんだろう
AIは放射線科医や放射線科技師の役割
>>857 放射線技師は人間を撮影するのが仕事だから、AIには無理だろ
放射線科医の中の読影医ならAIでもできるかもしれんな
心配しなくてもSIerは土下座役職あるから。 あのクソ連中はそうやって今までやってきたし、これからもそうだろう。
>>859 泣き叫ぶ子供をあやしながら撮影したり、立てない患者の腰を工夫して撮影したりとか、
ロボットができるようになるには相当の人工知能が必要だぞ
やっぱり人間相手の仕事はAIには無理よ
>>861 AI おいそこの看護師、子供をあやせ。
AI おいそこの看護師、爺さんの腰を少しを持ち上げろ。
AI おいそこの看護師、採血しとけ。
だが、動脈注射は医師免許がないとできないから無理だな。
AI おいそこのボケ医者、動脈注射でXX を入れとけ。
>>829 その認識で正しいが、実行環境の最低要件はケースバイケース。
Nvidiaが今年発表した新しい画像生成モデルのSPADEの場合、実行環境はNVIDIA DGX1/8 V100 GPUを指定している。
BigGANの場合も、まともに動かすためにはミドルレンジからハイエンドのGPUインスタンスが必要かもしれない。
BigGANで生成可能な画像は理論上は無限。
ただし、学習データは最低数千から万単位を集めないと生成結果の精度は悪くなる。
>>851 胸部内科のX線画像診断アプリケーションについてはまず、誰でも運用できるものではない。
実使用するためには、FDAの審査にパスしなければならない。
FDAの審査にまで持ち込む場合は、臨床試験を実施して臨床試験結果を提出する必要があり、
ここに至るまでには、相当な資金力の他、臨床試験を実施してくれる専門医療機関を見つけなければならない。
次にFDAの審査にパスしたとしてもそれを医療機関が使ってくれるかはまた別問題となる。
よく、この種のAIは医師に助言を与えるだけで、最終判断は医師が行う必要があるとかいれるがそれは違う。
まず、健康診断などの際に行われている胸部内科のX線画像診断は、2、3人の医師が数百枚くらいの画像を見ている。
そのため、胸部内科のX線画像診断を使ってダブルチェックをかけると医師の手間が2重にかかり、いくつかの研究結果では
AI画像診断ソフトを併用すると医師の診断結果の品質が却って低下するといった研究報告もでている。
そのため、100%の信頼性がない限り、胸部内科のX線画像診断は、忌避される傾向が強く、
そのため、医療分野へのAIの導入を進めたIBM Watsonの試みはことごとく失敗し、昨年末に部門のリストラに至っている。
AI画像診断ソフトの場合、どのようなケースでは認識を誤るのか、事前に具体的な例と数字データを医師に示す必要があり、
また、医療情報として提示された仕様条件に合致しない誤診をした場合には、FDA認証が取り消しとなる。
こうしたケースで医療事故が発生した場合、AIの提供元には、莫大な損害賠償請求がくることになる。
>>865 日本の法律では最終判断は医師下すと言うことになったんだよ。 アメリカとは違う。
つまりAI 開発者の責任を逃れるためでもある。 そうでもしないとAI は進まない。
>>856 ポッと出のAIベンチャー全部だろ
ディープラーニングでまともに精度高めるには大量のデータとGPUがいる
オンプレでシステム構築するなら数千万
AWSなどクラウド使うとしても月数百万程度のコストがかかる
これをやれるAIベンチャーなんて存在しない
?なんだが、いまの5chはコミュ障な奴が多いから
読み手はエスパー能力が高くないと駄目だからな。
スタートが
>>865 のような独り言・愚痴(本人はこれで質問しているつもりなのかもしれないが)
ではコミュ取るの大変な感じがする
>>861 100%全部をAIでやらなくても
70%くらいをAIや機械で自動化すれば
大分変わるんじゃね?
もちろん最初は10%くらいかもしれないけど
改善を重ねていくことはできる
今のスマホだって最初は平野ノラのネタみたいなショルダーホンだったんだし
ABEJAのサイトを改めて見てきたけど、確かに中身ないな
店舗分析も激安スーパーのトライアルの情シスの方がレベルが高そう
>>831 人売りSES企業と同じ輩がやってそうだな >AI企業で上場してイグジットしてガッポリ
投資は投資するやつの自己責任だから良いけど
AI詐欺企業リスト ABEJA、LeapMind、BrainPad、テクノスデータサイエンス・エンジニアリング、??????クロスコンパス
人工意識を作り出す方法として進化的計算を用いるのはうまくいかないんでしょうか どういったニューロンにするとかどういう問題が意識の有無や意味理解を示すのか Googleのやっていた方法としてAutoMLを使うとかまったく未知数だと思いますが 作れたとしても理解できないものになってたりするかもしれないし 認識している人間は誰で何が最終的に認識しているのかが分かるようになると思う
>>866 医事薬の市場は米国が世界市場の半分を占めてる。
そのため医薬品や医療用機器などの場合、まず、米国特許を抑えて、FDAの認証を取るのが最優先となる。
したがって日本の医事法がどうなってるかは製品開発上はあまり重要性をもたない。
>>876 涙が出てるぞ。 AI 診断は、画像でも文献検索でも 日本の診断がなんでFDAに関係すんだよ。 勿論裏を取るために参考にはするが、関係ないぞ。
診断と言うのはアメリカに売る商品じゃないぞ。 そりゃ、ソフトをアメリカに売るのなら関係あるが。
>>875 それはつまり汎用人工知能では?
今は特化人工知能、弱いAIしか実現出来ていないから
人工的な意識を作り出すのはまだ先だと思う
意識とは何か?という根源的な問いに答えられていないので今は作りようがない 意識があるかのように振舞うことはできるかもしれないが
もしそれが解明できたら日本のAI研究は一気に世界トップクラスになるな
意識があるかないかの物理的、化学的、あるいは生物学的な明確な定義ができないと チューリングテストと同じで、意識があるように振る舞うコンピュータは意識があると見なすのかな
>>885 意識があっても人間らしくない人間は現に多数います、私は人間にしかできないことはなにか、に興味があり、それができる者を人間とみなすことにしています
人間にしかできないこと、とは何か、についてはまだ答えは定まっていませんが…
地球や社会があるのと同じように、意識がある そういうことじゃないでしょうか
意識の定義なんてどうでも良いい 会話してたら相手に意識があるかないかなんてすぐにわかるだろ たとえその相手が機械だったとしてもね
機械学習を学ぼうと思うんですがchainer と kaggle と tensorflowどれを使って学ぼうか悩んでます おすすめとかあったら教えて下さい
そもそも意識のあるプログラムなんて求めてる人どれだけいるの? 俺は意識も何もなく文句言わず働く奴隷プログラムがあればそれでいい
tensorflowはkerasのバックエンドで動くライブラリ ぐらいの認識でいい気がする昨今 chainerはないから、その中だとkerasかな
chainerどうなの いまいち使われてる感じがないけど kerasやpytorchと変わらん感じがしたが
トヨタとかPFNと組んでやってるところは使ってるだろうけど、それ以外ではどうなんだろうな
>>893 その他におすすめなフレームワークってあります?
>>894 実質PyTorchに美味しいところ持っていかれた
二つの違いは細かいところ抜かせば速度だからね
記法なんてほぼ同じ
今開発しているChainerXで速度は向上するだろけど
Chainerでなければならない「何か」がないと巻き返しは難しいと思われる
あとChainer使っててストレスなのが、モジュールにfunctionとfunctionsとあってタイポしやすい
畳み込みにdelatedパラメータがないので別の関数を用いることになるけどPyTorchは後発だからか標準Convにそれがある
等々、全体設計的な面でPyTorchに負けてしまっている感じがする
>>888 > 意識の定義なんてどうでも良いい
おめーのような馬鹿はくるなよ
吐き気がする
実用できない妄想を書き散らかすことしかできない意識信者は消えろよ
意識とか汎用人工知能とか、実現不可能なテーマを論じてる俺カッケーって感じっすか。 失笑ものだな
>>897 chainer個人的には自由度高いから好きなんだけどな
マーケティングで負けた感じか
意識とは遺伝子の存続を目的としたある程度複雑な思考
>>902 マーケティングだねぇ
今後の戦略としてどうするつもりだろうか
生きながらえるだけならcaffeのようにPre trained modelを充実させて、Redhatのようにサポートで食っていくというのはあるかな
あとはData Robotライクなオープンソースのウェブベースツール開発して、そのバックエンドがChainerとかなら生き残れるかも知れない
いずれにしてもGoogleとFacebookと戦うには、ビジネスモデルを変える必要があるだろうね
chainerは別にopensource界で広まらなくても困らない そりゃ広まった方がいいけど toyotaやfanucあたりと直に一緒にやっているし
>>906 日本相手にするならソリューションで食うしかないだろうね
今のところ買収されるような成果はないし
買収される必要も無いんだけど 分かんないならすっこんでればいいのに
むしろ国内の大企業は目付けてるんじゃないか 自社内でここほど研究開発力あって人員も揃ってるとこあるのかね どっちかというと国内にPFNレベルのベンチャーもっと出てほしいが
>>898 いちいち言葉の定義しなきゃ前に進めないとかめんどくさいやつだな
多分お前この分野向いてないとおもうよ
>>913 みたいなのが雰囲気で見切り発車しまくって物事をグダグダにするんだろうな
>>914 ほぉ
お前はいちいち定義ありきでないと物事を思考できないんだな
じゃあ学習とはなんだ?機械とは?認識とは?
もし定義できないならこのスレにお前は来るべきじゃないな
意識が何かとか別に定義しなくていいけど、どうしても定義したいなら 何ができたら意識があるとみなせるかまで言わないとただの言葉遊びでまるで意味がない
>>917 仮に言葉の定義づけができたからってそれを実現できるわけじゃないんだろ?
じゃあなんのために定義すんだって話
こんなアホが多いから日本のAI研究は世界から大幅に遅れをとっちゃうんだよ
言葉の定義付けができてなかったら「実現できたかどうか」も定義できないだろ 「実現した!」って言ったもの勝ちになるんだから
>>923 言葉の定義づけしないと実現できたか判定できない(定義づけすることで目的範囲を狭めてできるだけハードルを低くしたい)
>>907 たしかにオープンソースで儲ける必要性はないね
Chainerを中心に人材があるというのは宣伝力としては抜群だと思うよ
この先どういう広がりを見せてくれるのかは興味があるね
T社との協業はマジで悪手 潰れないためにはそれしかなかったんだろうけど 日本最大の大企業のやり方に嫌気がさしてる頃だと思う テスラと同じ道を辿るはず
>>921 だから、何ができたら実現できたことになるのかを示さないとただの言葉遊びにしかならないよっていう話です
>>927 意識を持ったAIなんて今の人類には技術的に実現不可能なのに言葉の定義を明確にすればなんとかなるとか思ってるやつって絶対頭悪いと思う
>>928 今の人類にとってどうかとかはどうでもよくて、何ができたら意識を持っているって言えるのかを明確にしないといけないよねっていうことですね
漠然と意識とか言ってる限り何を実現すればいいのかわからないし、意識を実現できたって主張した人が現れても反論できないですよね
>>928 定義したら実現できるという話ではなくて、議論の俎上に上がらないという話なんだけどそういう意味で伝わらんかったのかなぁ
>>929 ひとまずさっきレスであったように学習や認識の言葉の定義を教えてくれよ
少なくともディープラーニングは学習や認識とよばれるプロセスは実現できてると思うけどお前の考えによると言葉の定義が曖昧だからディープラーニングは学習も認識も出来てないってことになるのかな?
>>932 学習は、データが与えられたときに与えられたタスクに対してより高い精度の出力ができるようになること
認識はその結果に相当すると思う
ここではディープラーニングは全然関係ないけどね
そもそも言葉の定義を気にしてるのは単純にその技術が実現不可能なんだと勝手に思い込んでるからなんだよな
このスレの住人は日本のAI研究のレベルの低さをよく表してる
>>933 そんな漠然とした表現でいいならそもそも定義しなくてもよくね?w
>>934 漠然とはしてないんだよなぁ
問題依存があるから幅を持った表現で書いてるけど、例えば分類でも回帰でもタスクや精度の定義もちゃんとできるし
じゃあ定義してやるよ 意識を持ったAIとは 「ドラえもんみたいに自律しながら自然な感じで人と会話できるAIの事」とする 問題依存があるから幅を持たせてやったぞ これでいいか?
>>936 それで定義しても別にいいけど、どう判定するのかな?
ドラえもんみたいに話せないとAIではないの?自然な感じって何?検証可能なの?会話だけでいいの?
それも含めてちゃんと定義しないと意味ないよね
>>936 幅があるっていうよりもかなり具体的で限定された用途のみのAIだよね、それ
>>937 学習って何?タスクって何?高い精度ってどのくらいのことを言うの?そもそも精度ってなに?言葉の定義が曖昧すぎて検証できないよーー!
>>941 とりあえず「パターン認識と機械学習」っていう本読むといいよ
>>942 その本には認識や学習の定義がしっかりと書かれてるの?
何ページの何行目?
>>943 持ってるんだけど今手元にないんだ
買ったら教えてあげる
>>945 持ってないんだねw
ほんとにばかだねw
あと手元にないから答えられないってことはその本に明確な定義が書かれてなかったら完全にお前の論理は破綻するってことだなwあーおもろ
そもそも機械学習ってものが 回帰分析をちょいと複雑にした程度の ものなのに、 なぜそこに意識などという回帰分析と 全く関係なさそうな意味不明で曖昧模糊としたものを もってくるのか? 馬鹿じゃね? なにも分かってない証拠じゃん 回帰分析ぐらいやってからこい馬鹿たれが!
>>946 職場においてるから自宅から参照できないだけで持ってるよ
買ったら教えてあげる
>>947 だから明確に定義しないと話にならなよっていうことですね
意識の話を延々続けてる奴はここがプログラム板の機械学習・データマイニングスレってこと気づいてる? 未来科学板にでも行け
意識が存在するとしても 誰からも観測されなければ 意識が存在しないのと等しい 意識が存在するなら誰かに観測されるはず 観測した人が意識だと認識すれば 意識があるのと等しいんじゃね?
>>916 厳密さの程度はバラツキがあるだろうけど
言葉によって表される概念はあって
その共通認識が無いと議論がうまくできないだろ
言葉の定義も抽象的なものもあるし具体的なものもあるんじゃね? あと、当てはまる例や当てはまらない例を列挙する方法とか 学習は、観測したデータを既存の概念に分類する方法を獲得すること 認識は、学習した結果を使って観測データに対応する概念を答えること 具体的には 画像データからネコかネコ以外かに分類する方法を獲得して 新たな画像データを見てネコかネコ以外かを答える 画像データをみてネコかネコ以外かを95%以上の正答率で答えられないなら学習できていないとか 正答率は人間の結果とか過去のデータと比べてになるかな
>>926 PFNくらい技術あってもあれだもんな。。
この業界は厳しいわ。
>>953 認識、学習というプロセスが具体的だと思い込んでるのはディープラーニングという手法が確立されてるからだろ
逆に言うと未知の手法に関する概念はすべて抽象的ということになってしまう
言葉の定義が曖昧だから実現は可能というのは頭の悪い技術者・研究者の単なる言い訳でしかない
>>956 議論を円滑にするには言葉の共通認識が必要
言葉の解釈と定義はその共通認識を発信側と受信側で表現したもの
議論できた方が実現の可能性が高くなると思うけどな
>>958 解釈→受信側
定義→発信側
順序が逆になってしまった
機械学習の用語に既存の用語を使うことで理解しやすくなっている 学習とか認識とかは以前からある用語で 類推して解釈しているはず 学習を、ぱにゅ 認識を、ぽにゃ という用語にしても良かったんだろうけど 無駄なコストがかかるよな
>>951 デカルトの「我思う、故に我在り」から全く進歩してないな
「私は神の存在を確実に感じている」という敬虔なクリスチャンが1人いれば神の存在が証明されたことになるのかな?
ディープラーニングという手法が生まれなかったら今だに認識するという概念すらも具体的に定義することができなかったんだろうな それで定義できないから議論もすすまず、その間に海外の研究者に追い抜かれると
>>961 そう言う敬虔なクリスチャンと同じ考えの人が人類の100%になれば人類の認識として神は存在するんじゃね?
1人だったら神の存在可能性は1/60億人程度なんじゃね?
>>962 認識という言葉はもっと前からあるんじゃね?
脳科学の方が意識の解明には近そうだ これだけ科学が発展し多くの研究者がいる中で ほぼ全ての人類が生まれながらにして意識があり 毎日睡眠という意識がなくなる行為をし 毎日起床という意識回復の儀式を行っているにもかかわらず その謎が解明されていないのは何故なんだろうね
>>962 認識なんて大昔からあるよ。 別にAI に限った話じゃない。
AI は、曖昧な認識をまとめて学習して認識率が上がることに特徴がある。 学習したデーターから推論により高い認識率となるのがAI の特徴となっている。
>>967 我思う故に我あり。 ただそれだけの事。
>>875 >>967 自由エネルギー原理と統合情報理論で検索だ
FEP
IIT
意識厨は中学生でしょ。 たまにいるのよ、自分のこと神レベルの天才だと 勘違いしてるバカ中学生が。 まじ信じてるから何言っても無駄なの。 過ぎ去るのを待つしかないの。 迷惑なキチガイ中学生。
>>974 論破されすぎてファビょってんな
パターン認識と機械学習はもう買った?
「論破」は思春期にありがちなへりくつ病にかかった男子中学生がよく使う言葉。
>>978 虫専用の判定アプリはGoogle Playにある
なんでもかんでも認識するのはGoogle Lens
多次元尺度構成法ってデータ間のユークリッド距離を見てユークリッド距離をほぼ再現できる別次元のデータ構成をつくりなおすってことで合ってる?
>>983 合ってると思うけど
理論の詳しいことはわからない。
ただデータ分析ではウルトラむちゃくちゃ役に立つ!
図で結果を表示できるから
客が納得してくれる。
MDSはいいよ!
>>983 「ほぼ再現できる」は言い過ぎで「できるだけ再現できる」程度だな
本来遠くにあるべきやつが近くに表示されてたりとかする
仕方ないことだけど
>>987 ほぼ再現っていうから分かってないかと思うじゃん
>>986 回答ありがとう
ちなみに多次元尺度構成法の数学的なアルゴリズムの概要がわかる人っていますか?
>>989 たしか元の距離と変換後の距離の差の二乗和を最小化する線形変換を求めるとかいうのだったと思う
>>192 統計学が大学一年レベルでこの業界って無茶すぎるしそもそも下のアルゴリズムがすでに大学3ー4年レベルの統計学じゃん
>>991 MDSに関してはそんなレベルだと思うよ
線形変換がよくないっていうならisomap、tSNE、umapとかいろいろ手法があると思うけどパラメータのチューニングどうするんだっていうのは分からんです
いわゆる最小二乗法っていうのは正規線形モデル(つまり誤差項が正規分布に従う仮定の線形モデル)でほかの確率分布を想定するために一般化線形モデル(正規分布以外の分布にも従うことを想定するモデル)があるっていうことでいいんでしょうか?だれかおしえてください 私の認識では正規分布に従う仮定ならばパラメータの推定は最小二乗法という簡単な行列計算で行うことができるけど他の分布の仮定であれば一般化線形モデルのもと最適化アルゴリズムを利用した最尤法を行わなければいけないという理解なんだけどあってるのかな?
>>996 合ってるかどうかだけでも教えてくれないか?
>>995 Rでlmとglmの引数の違いを見つめてれば何かが分かるはず
>>995 あってるよ
データ解析のための統計モデリング入門が良書でオススメ
>>707 が著者の本に沿ったプレゼン
1000! 線形モデルで最尤推定してもいいんだよ? その場合、確率分布が正規分布だから 最小二乗と結果同じになるけど
-curl lud20250103015002caこのスレへの固定リンク: http://5chb.net/r/tech/1556674785/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【統計分析】機械学習・データマイニング24 YouTube動画>2本 ->画像>5枚 」 を見た人も見ています:・【統計分析】機械学習・データマイニング23 ・【統計分析】機械学習・データマイニング13 [無断転載禁止] ・【統計分析】機械学習・データマイニング25 ・【統計分析】機械学習・データマイニング6 ・【統計分析】機械学習・データマイニング27 ・【統計分析】機械学習・データマイニング31 ・【統計分析】機械学習・データマイニング28 ・【統計分析】機械学習・データマイニング32 ・【統計分析】機械学習・データマイニング27 ・【統計分析】機械学習・データマイニング26 ・【統計分析】機械学習・データマイニング16 ・【統計分析】機械学習・データマイニング15 ・【統計分析】機械学習・データマイニング17 ・【統計分析】機械学習・データマイニング18 ・人工知能ディープラーニング機械学習の数学 ★3 ・マイクロソフトの機械学習AI「Tay」、ネットで差別と陰謀論に染まって一日で公開停止 [無断転載禁止] ・【あっ…】任天堂が機械学習によるアップスケーリング技術の特許を申請【察し】 ・【商品】「Google Cloud」で利用できる第2世代の機械学習向けTPU発表 ・【IT】ブラウザでの仮想通貨マイニングをブロックする仕組みがFirefoxのベータ版に登場 ・【R】統計・機械学習ツールスレ【jupyter】 ・【技術】AIが衰退期に 機械学習エンジニアが職を失う ★2 [雷★] ・カオス理論で知られる複雑な状況を「機械学習」によって正確に予測する技術が開発されている ・【IT】MIT発のスタートアップFeature Labsは機械学習アルゴリズムの開発を加速する ・【機械学習】人が見ている画像や心の中でイメージした内容を画像化する事に成功 京都大学&ATR ・【解説/ハードウェア】ハードディスクに障害が発生する可能性を機械学習で予測する研究 [すらいむ★] ・【CPU/GPU】マイニング情報交換スレ91 ・Macで仮想通貨マイニング Part1 ・【初心者用】マイニング情報交換スレ45 ・【初心者用】マイニング情報交換スレ30 ・【初心者用】マイニング情報交換スレ36 ・マイニング質問スレ Part.4 ・スマホでマイニング情報交換スレ ・【CPU/GPU】マイニング情報交換スレ63 ・【初心者用】マイニング情報交換スレ60 ・【初心者用】マイニング情報交換スレ49 ・【初心者用】マイニング情報交換スレ46 ・【CPU/GPU/ASIC】マイニング情報交換スレ99 ・【初心者用】マイニング情報交換スレ15 [無断転載禁止] ・【CPU/GPU】マイニング情報交換スレ93 ・マイニング赤字ヘッジファンド? ・HDDマイニングについて語るスレ 12EiB ・【CPU/GPU】マイニング情報交換スレ90 ・【初心者用】マイニング情報交換スレ37 ・【CPU/GPU】マイニング情報交換スレ58 ・【CPU/GPU】マイニング情報交換スレ86 ・【初心者用】マイニング情報交換スレ14 ・【仮想通貨】GMO、仮想通貨のマイニング事業を開始 ・【初心者用】マイニング情報交換スレ3 [無断転載禁止] ・儲けたお金の税金・確定申告【マイニング専用】 ・マイニング・パラダイス・ドネーション ・【今までで一番悲報!】WEBサイトにマイニングコードが入っていたら検挙?否認したら裁判へ?1枚目 ・【BTC】コスト高マイニング工場スクラップ【ETH】 ・【ロシア】核施設で「ビットコイン採掘(マイニング)」 複数の職員拘束 ・試しにマイニングしたらパソコン燃えそうになってるんだが ・日本企業が技術者に低スペックのPCを割り振る理由が酷い。『役員より高スペックPC使うのは失礼』『勝手にマイニングできないように』 ・【超お得速報】マイニング専用のRX470 8GB(5980円)を普通にPCで使う方法が発見されコスパ最強VGAに進化 GTX1060と同等の性能 ・マイナンバー普及率12%、焦る政府の拡大策に市民団体ら警鐘 「被差別部落や婚外子等の差別データ、ネットワーク化で問題が固定化する」 ・珈琲倶楽部イニング ・ウイニング競馬 ・【PS4】ウイニングイレブン2018 part4 ・サンデーモーニング★3 ・【PS3/PS4】ウイニングイレブン2016 チームプレー15 ・【悲報】マイナンバーの旧姓対応に100億円 ・柴田阿弥専用 ウイニング競馬 ・ディープラーニング
16:28:19 up 30 days, 17:31, 3 users, load average: 91.27, 78.93, 87.13
in 0.058044195175171 sec
@0.058044195175171@0b7 on 021306