◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【統計分析】機械学習・データマイニング16 [無断転載禁止]©2ch.net YouTube動画>5本 ->画像>3枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/tech/1498493352/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/ DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76 ■前スレ
【統計分析】機械学習・データマイニング15
http://mevius.2ch.net/test/read.cgi/tech/1492344216/ キータッチが未熟な僕は以前「2get」と入力したつもりなのに 間違って「2gwt」と「e」のとなりの「w」を入力してしまい、みんなからバカにされました 悔しくて悔しくてあの日以来、雨の日も風の日も2getの練習を繰り返し キーボードは10台買い替え、指の指紋も消えるくらい練習しました 今ここに練習の成果をお見せしたいと思います 2grt!
将来、Mハゲになるのか、てっぺんハゲになるのか、それとも両方か予測出来ないだろうか?
366 :nobodyさん 2017/05/29(月) 16:07:39.16 ID:6v4UcGhE
今回の民法改正、ソフトウェア受託開発の場合、(検収後ではなく)バグ発見後1年瑕疵担保責任があるということで、地獄かよ、と思ったが、
元々問題が起きがちな受託案件がビジネス的に成立しなくなることで強制的に業界再編につながるなら良いことかもと思うようになった。
一部で地獄を見ても。
https://twitter.com/yukihiro_matz/status/869061879389343744 367 :nobodyさん 2017/05/29(月) 16:28:06.55 ID:6v4UcGhE
ニュース - 改正民法が成立、「瑕疵担保責任」などシステム開発契約に影響大:ITpro
http://b.hatena.ne.jp/entry/itpro.nikkeibp.co.jp/atcl/news/17/052601508/ 372 :nobodyさん2017/05/29(月) 19:10:37.12 ID:???
Railsでシステム作って納品する
↓
Railsはマイナー、メジャーのアップデートが半年以内に必ずある
↓
客がアップデートする。アップデートによるエラーやバグ、動作の不具合に気づく
↓
気づいてから1年以内に通知すれば、5年間無料保証ゲット
↓
つまりRailsがアップデートするたびに、無償の修正作業を発生するということかな
376 :nobodyさん2017/05/30(火) 09:20:20.09 ID:L5po86sS
>>378 >>379
>>375 客が瑕疵担保責任法の法改正を知ってくると思うから、今後5年無償保証をお願いされるだろう
営業がそれでも仕事を取ってこれるか?たぶん無理だろう。無限の直していたら赤字になる。
こういう保守に弱い言語、ころころ仕様が変わる言語は仕事として発生しなくなってくる。
これは変わり目だ。お前らも早く逃げたほうがいいぞ。RubyやPHPなど動的言語は確実に廃れる。
保守に強い言語のみ生き残れる。
瑕疵担保責任(かしたんぽせきにん)
瑕疵担保責任のポイント
民法改正で事実上期限が「無制限」になった
バグや設計のミスなどは、瑕疵担保責任
納品物に不具合があれば損害賠償を請求される可能性もある
不具合を指摘されたらすぐに行動をとるべし
軽微なミスでも先延ばししない
http://www.atmarkit.co.jp/ait/articles/1706/26/news014.html http://itpro.nikkeibp.co.jp/atcl/news/17/052601508/?rt=nocnt 改正法では欠陥に気付いてから1年以内にITベンダーに通知すれば、
通知後5年以内は修正や報酬の減額などを求められるとしている
全ベンダーが泣いた民法改正案を解説しよう その1
http://www.atmarkit.co.jp/ait/articles/1609/14/news009.html http://www.atmarkit.co.jp/ait/articles/1609/14/news009_2.html http://www.atmarkit.co.jp/ait/articles/1609/14/news009_3.html ポイント1:修補や損害賠償、契約解除の期限がなくなる
従来あった「瑕疵担保期間は引き渡しから1年」という考えはなくなる。
条文にある通り、注文者は成果物が契約の目的に適合しないことを発見したら、
その「発見したときから1年以内」ならさまざまな請求ができる。発見が10年後なら、
11年後まで請求可能なのだ。
もっとも、現実のユーザーとベンダーの関係でも、たとえ契約書に「瑕疵担保責任期間は納品から1年と」明記されていても、
「2年目以降は不具合の修正に対応しない」と主張するベンダーはまれだ。多くの場合は、納品から何年たっても、
バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。
>>11 英語が下手すぎてドン引きだわ…
>>14 MS でさえgithub使うのにな
>>13 どういう点で?
>>14 >>17 github で公開されてるよ。スター数はすぐに chainer 抜きそう
>>20 TF や Keras を抜くのはさすがに無理でしょw
readme を見た感じだとまだ機能が貧弱過ぎるな、
既存のフレームワークの後追いじゃ勝ち目がないので
差別化できる機能が提供できるかが勝負でしょう。
chainer信者がkerasを叩いてるうちに、sony に負けるでござるか
>>24 スレが過疎る原因の一つになってることに気がつけよ
>>24 個人名をあげるなら自分のブログで自分の責任でやるべき
Fran?ois Cholletは自らのtwitterアカウントでchainerヘイトをまき散らしている 周知の事実でしょ
サーバー変えたら動かなくなりました。 OSアップデートしたら動かなくなりました。 OS変えたら動かなくなりました。 WEBサーバー変えたら動かなくなりました。 WEBサーバーにパッチプログラムをあてたら動かなくなりました。 DB変えたら動かなくなりました。 DBをアップデートしたら動かなくなりました。 PHPのアップデートプログラムを更新したら動かなくなりました。 PEARのバージョン変えたら動かなくなりました。 PEARのアップデートプログラムを更新したら動かなくなりました。 WordPressのバージョン変えたら動かなくなりました。 WordPressのプラグインのアップデートプログラムを更新したら動かなくなりました。 Railsアップデートプログラムを更新したら動かなくなりました。 Rubyアップデートプログラムを更新したら動かなくなりました。 高負荷になったら動かなくなりました。 無償で修理してください。損害も請求します。 しばらく放置していて、最近動かしたら動かないです。原因はわかりません。これは御社の不具合なので無償で修理してください。 5年後ごとに起こるであろうこと PHPバージョン変えたら動かなくなりました。無償で修理よろしく 3年後ごとに起こるであろうこと Railsバージョン変えたら動かなくなりました。無償で修理よろしく 1年後ごとに起こるであろうこと Rubyバージョン変えたら動かなくなりました。無償で修理よろしく 無償で修理してください。損害賠償も請求します。無視するなら瑕疵担保責任法で訴えるぞ! 納品先の会社 10社から同時に 重大な脆弱性が現バージョンから発見されました。こちらでアップデートしたところ、起動ができなくなりました。 至急弊社に来て修正作業をお願いします。なおお金は払わない。また営業に損失が出たので損害請求もします。
【機械学習】ソニーがディープラーニング用“コアライブラリ”をオープンソース化。Pythonで利用可能、GPU実行も
http://egg.2ch.net/test/read.cgi/bizplus/1498529223/ Python2.7(笑)
***SLAMO*** } 000-"F","TAP","0","1M","L","E-07"/0B"[9BA%]"^"2*73B"="0"/"9GA" 001-"Do"[[[%9DE=HUF%%!%$0B1OTU"NE"]]]<\b> 002-<<%!!!HNDEL%!0DAI@$7[1B]!0#!@>> 3000-{{1\B%HUF!0$$\%6/0Q\%6/GA[[7BU]]%9TE!%$en$}} --- [[[C%%]]] } 000-"5802"/"α"="0.1888412376155482"%en{
静観してたがワッチョイ導入しないともう無理だな、このスレ…
おまえら大袈裟だな 松坂君がいた時に比べて全然平和だからw 嘘だと思うヤツはデータ構造スレ覗いてこい
アホか、前よりマシだからと言って現状を是とすることなかれ。
ワッショイ付けるのは別にいいけどそんなに言うほど荒れてない。 何か個人的に気に入らないレスが多いだけじゃない?
どこが荒れてるんだ?割とマジで そろそろワッチョイ厨が自演で荒らすパティーンになるのかな(´・ω・`)
個人名をあげての中傷が問題にされてるだけだろ クソスレがいくら荒れようがかまわんが、自演が減るならワッチョイもいいかもな
このスレって普段は深夜の書き込みは全然ないからな、
>>41-43 なんて荒らしてるやつ本人が時間をあけて自演してるとしか思えないし。
ほお 前スレだけでも0時~4時間のレスがそれなりにあったわけだが
>>46 前スレまで遡らないとないじゃないか www
気にくわないやつが一人いるだけのようだ 強引なところが一緒
ここまで有用な情報なし。典型的な駄スレ、放置でよし
nnlabとchainerで競ったら良いんじゃない 日本の技術で世界に差をつけろ
初心者がディープラーニングを学ぶのに
どちらの方がお勧めですか?
ニューラルネットワークの計算式(Σ)とか意味不明な段階です。
算数&ラズパイから始める人気AI
ディープ・ラーニング
http://www.kumikomi.net/interface/contents/201708.php 【4日で体験】 TensorFlow x Python 3 で学ぶディープラーニング入門
https://www.udemy.com/tensorflow/?aff_code=Ewh3Y11STX4GQB9zMkBPbG1R... 👀 Rock54: Caution(BBR-MD5:073050f73c59f664b818665703e01474) アンドリュー先生のやつ見てから と、思ったけどディープラーニングの中身には触れてなかったな サンプルやら色々溢れてるのに金払うのはなんだかなぁ 手っ取り早いんやろけどね
kerasていつの間にかMSのCNTK選べるようになったんやね それよりコア部分をC#で実装出来るようになってほしいな
TensorFlowSharp使ったほうが便利だよ
AI・人工知能 EXPO 行った人がいたら感想頼む
>>70 半分くらい技術なさそうだなって展示だった
人気のs水さんもおったで
Qiitaは意識高い系のブログと化してっからなぁ...
アホすぎやろ、たかが2^2+3を計算するのに何行書いてんだよw なんと効率の悪い言語だ
技術者として知識の共有をしたいと考えるのは当然のことで、それを意識高い系と言って馬鹿にしているようでは成長など見込めない
共有するに値する知識を有してるかどうか、ってことだろう。 ゴミのような知識を一丁前にひけらかすのが意識高い系。 有用な知識を共有してくれる人を馬鹿になどしない。
>>70 行ってきました。
先に述べられてる通り技術無いなって展示ばかりだった。
チャットボットが半数、萌キャラを使った対話(笑)システムが3割。残りは雑多。
今回の展示会が「上司にAI導入しろって言われて困ったリーマン向け」といったところだろうか。主観だけれど。
レベルとかゴミ記事(?)とか置いといて気楽に投稿してくれた方がいいけどね。 意外とどうでもいいところで躓いたりするし。 qiitaとか嫌う人がいるのはレベル云々とかじゃなくて 商品紹介しているyoutuberみたいに 技術紹介よりも投稿者のキャラの自己主張が前に出てきて五月蠅いのが本音でしょ。 あとs水みたいに昔のAlpha bloggerのようなポジションを目指している輩とか。
ゴミ記事っぽいところで躓くことは有るし否定しない。Qiitaで気になるのが、他人はてブのコピペとかcontribution数稼ぐだけの意味不明記事とか。
Qiitaでウザい投稿 ・ブログコピペ、公式内容コピペ ・gitからcloneしてReadme通りに動かすだけ ・論文機械翻訳コピペ ・リンクコピペまとめ風 ・コードや知見が一行もない記事 googleで上位に来るのが更にウザい
>>89 有名()な投稿者なら事前にわかるけど、開くまで分からないからたちが悪い
>>90 なんでChainer が載ってないの?スレ見てるとTensorflowと同じくらいには使われてる感じだけど
このスレは全然進まないスレだったのにいつの間にか勢いが増してるね 何があったんだろうか?
>>90 chainerの勉強し始めたけど、日本以外じゃchainerってここに出てるのより有名じゃないのか。他のにしたほうがいいのか
まあ別にいいとは思うけどね、新しくなってマシになったみたいだし 前のバージョンはマジで終わってたけど 大学はもちろん企業とかでもchainer使ってるとこ結構あるしね
>>97 日本の初心者はchainerで良いよ
chainer出来れば他のと同じことできるし
気になるなら各ライブラリのチュートリアルMNISTそれぞれやって、分かったのやれば良い
>>97 日本のコミュニティで上手くやりたいなら chainer 使え。
日本のコミュニティと上手くやる必要がないなら他のを使え。
このスレ見てりゃ分かるだろ、chainer持ち上げておけば丸くおさまる。批判すれば面倒な話しになる。
ロト6の過去の当選結果を機械学習させて 次回の当選結果を予測することは可能ですか? ディープラーニングとか活かせる?
ロト6ってランダムに数字選出するだけの博打やないの 何を学習するんだ
>>106 過去のパターンとか。
数字の出現傾向とか。
totoのBIGとか完全にランダムじゃないっぽいけどな
>>107 悪いこた言わないからやめとけ 期待した結果を何も得られず終わると思う
ついでにかけ事もできればやめとけ
かけたけりゃ将来ハゲないように願かけ
問.さいころの目の出現を学習させると何が起こるか。 予想をもとに教師あり学習をした場合について答えよ。
どんな入力に対しても同じ答えを返すよう学習する気がするな。
報酬を与えてやればツキの流れを学習して、ついてないときは絞って、ついてるときはガンガン突っ込むように なるに決まってrる。
エントロピーが発散して学習が爆発するから値がオーバーロードされて、どんな入力に対しても7を返すようになる。 俺はこれを高次元未来予想現象と呼んでる。
サイコロの目を学習って意味不明。 時系列で見たいの?
>>90 信じられなくて自分でも確認してみたが、マジなんだな。TFやKerasどころか、Lasagneみたいなマイナーなフレームワーク以下なんだな、Chainerって。
何かショックだわ
ショックってどういう理由でだよw かなり前から散々言われてたやんけ
keras「chainerが無ければ、みんなkeras使うのに。chainer邪魔だわ。」 chainer「pytorchが無ければ、俺が一番coolなのに。pytorch邪魔だわ。」 pytorch「えへへへ」 こんな感じ?
>>118 株やFXのディープラーニングによる予測って効果あるの?
株価やレートのみ見ていたのでは効果はないのではないでしょうか?
効果があるなら数学者はみんな儲かるわ。 でも儲かるのはいつも同じ人。 もう分るな。
>>105 NNを使用するのならばデータ数は少なくとも変数の10倍程度必要と言われている。
仮に夢ロトくんが故障、操作によって何かの傾向があると仮定したとしても
抽選回数は約1200回しかないので、
例えば2層 37*(37+1)などの浅いNNさえも作れない。
.
>>122 そんな感じでは全然ないだろ、
>>90 によれば
chainer/pytorch から見たら keras は雲の上。勝負になってない。
さらに高くそびえるのが TF。
>>123 過去の累計だからな、caffe が一時代を築いたのは事実。
>>128 90によるなら、Chainerとpytorchだって勝負になってないじゃんw pytorchのほうが全然多い
ChainerとSonyのブービー争いを楽しもうぜw
>>122 こういうレスに騙されちゃうのよ、おれみたいな初心者は …
>>127 >NNを使用するのならばデータ数は少なくとも変数の10倍程度必要
データによる
ピークがいっぱいあるなるなら、その分多くのデータが要る。学習させてみないとわからん
kerasは過大評価されてると思うな。 TFのネームバリューに乗っかってるが、設計思想は大したことない。 と研究でChainerを使ってる者としては思うのだけど、正直なところニューラルネットはほとんどライブラリ化しちゃってて、 一般的に求められている多くの問題はkerasで片付いてしまうというのも事実
>>124 ロト6のディープラーニングによる予測って効果あるの?
>>127 作るって何を指してる?
ネットワークを作るのはデータするに関係なく作れる
学習出来ないと言う意味?
学習には重複したデータも使えるんじゃね
まあロト6とかをNNで学習させようとするのは
統計の基本すら判ってないとは思うけど
>>124 証券会社は1/1000秒ごとのデータを使って5分後の値を予測して自動売買してるとかAIをテーマにしたNHKスペシャルでやってた
DLかどうかわからないけど
証券会社なんだから、アルゴリズムというか特徴量の中にトレーダーの意見の項目も入れた上でモデルを作ってるでしょ
証券会社をスポンサーにしてる機械学習サービスって胡散臭いよな 証券会社は取引手数料を収入源にしてるから投資家が儲かるかじゃなくて取引回数最大化を狙ってるところだ。
>>136 ロト6とかひどく勘違いしてるよね。。。
こういう理解しちゃってるのは少なくない。
1/1000秒ごとのデータを使って5分後の値を予測して これどういうことだろう
>>145 1/1000秒ごとのデータっていうのが
データのタイムスタンプが1/1000秒単位なだけですー、だったら意味わからん
真面目に1/1000秒刻みの1秒あたり1000個のデータ群だとしたら
そこまで高精度に本当に記録できんのとかそれを時系列で学習なんて㌧でもない状況じゃないかとか
一言でいって、よくわからん
自分はFXとか長くやってたけど、FXには昔から自動売買ソフトがあって 実際、過去には儲かり過ぎて取引会社から出入り禁止になったようなソフトもある その儲かり過ぎたソフトのロジックはというと、値動きの少ない通貨ペアを選択して 欧米の投資家が寝てるような、絶対に値が大きく動かない時間帯を狙ってひたすら逆張りするような内容だった ロジックからして機関投資家みたいな大きな資金で取引できる内容じゃなくて、機関投資家の参入を招かないから余計に儲かったっぽい 要するに、個人でやる分には、そういうニッチなパターンを探す方法としては機械学習は有益なんじゃないかな
あとFXにはカーブフィッティングという言葉があって、 自動売買ソフトを売る詐欺師が良くやる手法だけど 過去データを使って取引したらこんなに儲かったとかいうデータを出したりするんだけど 実際に運用すると全く儲からないどころか大損するんだよね ロジックを過去のデータにフィットさせ過ぎていて、将来のデータには全く通用しないんだよね そのあたり、機械学習ってどうやってるの?
どうもなにもさ、 それ交差検証無しで独立変数増やしまくっただけでしょ
機械学習はトレーニングとテストにデータ分割して精度示すってことするから
プログラム板で一番高卒が集まるスレになっちまったな
>>137 気配からトレーダーの癖を読み取って売買量を推測して
コロケーションで不利なやつの先回り
後は複数市場が同期するラグを利用して、自社のダークプールの注文を微妙に釣り上げたり癖みたいなことしてたね
特にクレディ
>>151-152 そもそもFXはサーバ負荷と金融商品取引法等関係法規制の面で個人投資家によるサードパーティ自動売買ツール使用を禁じてるのがデフォでは
挙句に儲かり過ぎて禁止というのがもう意味がわからん
>>157 今は良く知らんが昔は全くそんなことなかったぜ
儲かり過ぎて禁止ってのはね、FXの取引会社って株と違ってノミ行為ができるんだよ
顧客の利益=FX会社の損みたいな
特別な取引の場があるわけではないし、顧客の注文の全てをどこかの公的な市場に流さないといけないというわけではない
それと、そのソフトに関していうと、取引量の少ない時間帯を狙い撃ちで事自体が問題視された
>>149 証券会社が買ってる情報と一般投資家が買ってる情報が同じと思ってる?
>>152 過学習だから
他データでテストすればすぐわかるんじゃね
儲かるかどうかは別として RNNのネタとしては面白そう
スレを毎日少しずつ読んでると気付かないけど たまに休んでてまとめて数日分読むと ほとんど飛ばして良いわって気付いてしまった
誰か、与えられた画像の人物が地毛かヅラか判別してくれる器械つくってくれんか 高精度なやつで
自分で作れ chainerなら3分でできる データがあれば
>>167 なら地毛かヅラかのラベルが付けられた対象の画像をとりあえず1万枚用意してくれ
高卒の馬鹿ですが、高校数学から学び直すことにしました。 よろしくお願いします。
積どころか、カリキュラムから行列そのものが消滅している
>>170 ラベルなしでもクラスタリングすればいけるんじゃない?
[[[%00β7/288:178α=1,0,3,25n 117*α/β^7400兆3261億8920,1n=0.1333345,1.2>>>end
<<<0%RMTLA:SAZE\%%"41β"≒"0.4222318""n"%% ""61""β""3888082"%\51=3888082α\\<<EMO>><<\CLA\>>" 〔NUBRE〕=〔JUOJA〕%0/7{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{=EMLA=17.3β&YLOZROM&en
<<<0%RMTLA:SAZE\%%"41β"≒"0.4222318""n"%% ""61""β""3888082"%\51=3888082α\\<<EMO>><<\CLA\>>" 〔NUBRE〕=〔JUOJA〕%0/7{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{=EMLA=17.3β&YLOZROM&en [[[HUME%1B%"ZEKKO"%4B%\[[[[[09GA<<<SYAJU>>>"AZE">>>en
>>174 複素数平面かな?
私の代から数C自体がなくなった
??NUF?? DE,FM,ADL,A,Z,O,1,7.333,91,β,17.2,{{{%TYA%&!GALUTO& << SAHI00-[[[1,2,31,29α,["ZEGLA"] >> 999-41.2/3$en$
[[[&44\1[AYO,SNA]& 01\\\71B,233β=KLAMO=0=2.888=1
>>179 そう。複素数平面が復活したらしい。
新入生に行列なにそれ?って言われたときは、こいつ高校出たのか?とか思ったもんだ。
行列は高校に不要だろ。 実用面ではいるかもしれないが、それほど重要ではないし 行列やるくらいなら線形代数でいいよ。 ほぼ同じようなことだが具体的な行列計算をするのが無駄、ロス。
自分のころも高校では行列なかったが、行列があった世代って中年以降か高齢者世代だろ? 大学ではやってたが。 数値計算ソフトで簡単に計算できるようなのを授業でやる必要ないだろ。 ソフトの使い方をやったほうがマシ。
>>184 こんなにピンポイントに年代がバレるレスも珍しいな
行列は試験問題を作りにくいから外されたんだろ 大学行っても本によって行列の表記が違って混乱する 細かい人は全部Tつけて表記してたりする
>>185 ピンポイントで分かるのか? 自分の認識だとほとんどの世代で行列はやってない認識なんだかせ? 歳くってる世代以外。
行列の理論面でみれば、線形代数だろ? 一次独立、一次従属とか
極論言うたら、pythonと各種ライブラリあれば計算力要らないじゃん 意味を理解してるだけでいい
>>149 本職だけど記録は余裕でできるよ
ただ現物の株でそんな流動性のある銘柄なんかない
先物だって売買が活発になる時期はかなり限られてる
極端な話一日中値動きがなかったらどんな時間解像度で観測しようが同じ値が記録されるだけだろ
近年の数学Cに行列あったらしいね。
普通高校でなかったから、数学も受験用のやつやってないから
そもそも当時の高校数学も何やってたかしらないわけだが。大学にはいったが。
数学C - Wikipedia
https://ja.wikipedia.org/wiki/%E6%95%B0%E5%AD%A6C 行列なんぞ高校でおしえんでもいい テンソル学ばせろ
テンソルというかアインシュタインの総和規約に慣れるとよろし
行列もテンソルも不要だとおもうぞ。 もっと基礎というか一般論、理論をやったほうがいい。 テンソル=多重線形代数として捉えた場合、線形代数を飛ばしてややこしいほうを先にやるのも難しい。 それに圏論で一般化できるなら、圏論から入ったほうが見通しいいかと。 多重線型代数 - Wikipedia 上に挙げたテンソル代数の特徴付けは、E → T(E ) が K ?代数の圏から K ?加群の圏への埋め込み関手の左随伴関手であることをいっている。 同様にして E → S (E ) は可換 K ?代数の圏から K 加群の圏への埋め込み関手の左随伴関手になっている。テンソル積加群や対称積加群、外積加群についても関手的な特徴付けができる。
層、トポス、圏論、測度論やるだけでいいだろ それじゃダメなの?
行列もなんもいらんから論理を徹底的にやったほうがいい。数学にも数学以外にも不可欠 「AならばBである」と「BならばAである」が等価でないこと、みたいな
>>202 数Aでさらっと舐めて終わりだろ?
裏逆対偶って用語を教えるので精一杯で徹底的とは程遠いというか
行列ならばテンソルである テンソルならば行列である
行列とテンソルをむりやりむすびつけなくていい。ほぼ別物だろ? 行列はただのデータとみなせるし、テンソルはテンソル空間やテンソル積などを考える必要がある。
テンソルは根本的には、ベクトル空間V、Wに対して、 その積V×Wから自然に作れる新たなベクトル空間Xってことでいいんだよな? 有理数の不足分をおぎなって実数をつくるみたいなことだろ? 完備化だが。
>>190 本職って具体的に何を指してるのか怪しいな
論理難しい。 十分条件と必要条件がどっちがどっちだってなる。
矢印で絵を書けばいい 十分な方から必要な方にフローが流れるだけ
ベクトルはベクター、テンソルはテンサーと言え トンスルかっつーの
機械学習の記事って情報が散逸してて読み切れねーわ 重要論文を一週間に一本に絞ってくれないかな
>>218 重要論文判定の識別関数作ってパーセプトロンに突っ込めや
てかそういうのこそ機械学習でやらせるべき
行列を単なる計算の手段と思ったらダメだろ 行列はベクトル空間を表し、そのベクトル空間に 対する距離(射影)が最短になるベクトルを 見つけるのが機械学習の本質、とイメージすると いろいろと応用が効くと思う。
>行列はベクトル空間を表し、そのベクトル空間に >対する距離(射影)が最短になるベクトルを >見つけるのが機械学習の本質 お笑いを一席
>>220 みたいな見方が出来る人
ホントに増えて欲しいんだが。。
>>188 行列がまるごと無くなったのは現行の学習指導要領から
以前あった一次変換は、最近はずっと入ってなかったと思う
次期学習指導要領も今のところ行列なし
>>223 なぜ?
見えるものが違ってくるのに。。
数学科卒だが、
>>220 の意味わかってない。
見えるものが違ってくるを具体的に頼む。
シンプルにこの行列だったら、"そのベクトル空間に対する距離(射影)が最短になるベクトル"とはなに? 1 0 0 0 1 0 0 0 1
もうその書き方から頭悪いよな 3次の単位行列と書くだろう普通
小中学生でも読んで分かるように書けない奴は本当には数学を理解できていない。
頭の善し悪しなんてリアルの学歴で決着がついてるんだから、こんなところで必死になってもしょうがないよ
Aが行列でxとbがベクトルとしたときAx = b の xを求めたい。 でも現実的にはxの解がないことが多い。だから 誤差e = b - Ax が最小のときがxの最適解になる。 Axは行列Aの列ベクトルの線形結合で作られる 「平面」であり、bはその平面から斜めに出ている ベクトル。 つまりベクトルbから平面への射影したときの 距離eを最小にするxが最適解になる。 解析の最小二乗法を線形代数的にやっているだけ だとは思うがベクトルの方がイメージしやすい。 数学科じゃないので間違ってたらすまん。
>誤差e = b - Ax が最小のときがxの最適解になる。 たった2行目のこの時点で大間違えじゃあ、長い長い残りを読んでも無駄だろう
>>226 高卒とは限らんぞ、東大でも大学で数学をやらん奴は線形代数を一生やらずじまいになる。
>>238 間違ってなくね?
どこのことを言ってるの?
Ax = bの時点でこの解は、行列のみならず、bにも依存してるわけだが。 bは任意でいいのか? そしたらゼロでもイチでもいいのか? それとも(A、 b)が最初に与えられた行列だとするのか? そこからの説明もとむ。
>>243 えっ?
連立方程式を行列で表現しているだけだが
>>244 その連立方程式と、この関係性を説明してくれ。
> 220 名前: [.] 投稿日:2017/07/06(木) 21:11:37.50 ID:1+qLHeAc
> 行列を単なる計算の手段と思ったらダメだろ
> 行列はベクトル空間を表し、そのベクトル空間に対する距離(射影)が最短になるベクトルを
> 見つけるのが機械学習の本質、とイメージするといろいろと応用が効くと思う。
>>242 へーん、なら誤差が負の無限大になるような解でも探してろよw
>>220 自己流で同じような考え方してたけどそう間違っちゃいないんだな
線型識別の話をしたいのだろう、たぶん、きっとそうだよね
>>249 最近、線型の意味を覚えたばかりなのかい?
学部レベルの数学がよく分かってない状態で 深層学習をやっちゃだめなんですね
スレ違いでしたらすみません。
因子分析についてどなたかご存知でしたらお答えください。
現在「5 因子性格検査短縮版 (FFPQ–50) 」
https://www.jstage.jst.go.jp/article/personality/13/2/13_2_231/_pdf を用いて個人の性格を分析しようとしているのですが、どのような計算をすればよいのかわかりません。
因子得点の計算法を書籍で確認したところ標準化した粗点に因子得点係数をかければ計算できるようです。
しかし論文には因子負荷量表のみ紹介されており因子得点係数や相関行列を求める手段が内容に思えます。
ご教授いただけますでしょうか。よろしくお願い致します。
>>253 そもそも深層学習の発展は専門外が貢献
学問てのは後付けにすぎない
>>219 Amazonのリコメンド機能とかGoogleのもしかしてとか
すでにあるんじゃね
重要と考えられるものを推薦したり提案したりしてる
>>246 平面上にbが存在すれば連立方程式に解がある状態かな
平面上にbが存在しない場合は平面上のbの距離が点
つまりbから平面へ射影した点が近似解になると解釈出来る
>>257 同意。
ついでに述べると深層学習専門の講義とかマジやめて欲しい。
特定の方法しか知らんやつが増える。
ベイジアンの書籍だもの。偏りがないとは言えない。 読んではいけない、は大学の先生の「気を引くため」の戯言じゃないの?
先端技術は中国にまかせて、日本は重箱の隅をつつくという切り分けはできてるだろ
map推定とベイズ推定の違いがよくわかりません P(θ|D) = (P(D|θ)P(θ))/P(D) でP(D|θ)P(θ)だけ考えてこれを最大化するのがmap推定で、 (P(D|θ)P(θ))/P(D)を全部計算してθの信用度まで出すのがベイズ推定だとしたらパラメータθに一切関わらないP(D)の値は計算する必要があるのでしょうか? P(D|θ)P(θ)だけ計算して合計が1になるようスケーリングするだけではダメなんですか?
>>253 ダメに決まってるだろバカなのか?
少なくとも数学か物理で修士持ってるやつ以外ダメ
工学部の博士だけ大学によっては良い
MAP推定なんて統計学的に何の根拠もないゴミだから使わない方がいい
無知そうなのがなんか言ってる。MAP推定反対派はもっと違うこと言う。
正確にいうと機械学習ではなくて統計学(専門はMCMC)だが MCMCが普及したという状況からみてもMAP推定は過去の遺物
ビショップの日本語訳の本ですが、ネットで注文して家に届きました。 下巻は表面がツルツルしているのですが、上巻は普通の紙みたいな感じです。 上下巻ともツルツルのが良かったのですが。。。 本自体も少しダメージがあるのが送られてきました。 もしかして、返品されたB級品を安く仕入れて売っているのでしょうか?
>>273 自分のレスに正しいってコメントするのって、バカなの?それとも自演失敗?
>>280 linear algebra の単なる訳語だからどっちでもいいんだよ、どうせ欧米の後追いなんだから
日常的に自演してるんだなw そりゃワッチョイ提言があるたびに強硬に反対するわなw
>>278 本は粗雑に扱われがちだから、そういうことはたまにある。通販の弱点。
表面の違いは版の違いなだけでしょう
>>278 お前は読まずに飾るだけなのか
だったら表紙だけコピーして弁当箱にかぶせて本体は安く売り払っちまえ
>>282 お前はその自演博士に教えを乞うているのかw
>>273 が自演っぽく見えるのは言葉のあやみたいなもの自演ではない。
どうせmap推定がなんでダメなのか述べても難癖付けられるだけだから
いわないでおこうと思ったが、仕方ないから言っておく
まず、ベイズ統計学的には事後分布を出すことこそが最大の目的であって
事後平均・中央値・最頻値などは副産物でしかない(それ自体は事後分布の姿を
把握するためのもの)
ただし、事後平均や中央値に関しては統計的決定論の観点から正当化可能
それに対して事後分布のモードは統計的決定論の観点から正当化できない
実用的にもMCMCが普及した今MAP推定はむしろ不便
プログラミングできない学生に教育としてベイズ的な考え方(≠ベイズ統計)
に触れてもらうくらいの価値しかない
レス付けられても付け返さないんでよろしく
で、どこの書籍や論文に書いてあったかの根拠を示せっていってるんだろ。 自演博士は日本語も不自由か。
数学やり直してるけどボリューム見て絶望。 浅く広くやるか、、深くじっくりやるか、、
>>289 自演博士さん、恥の上塗りですよw
>>292 まぁワッチョイ入れるなら従う
このスレの人達は、みんなこの分野の専門家なの? 「ニューラルネットワーク自作入門」とかいう本読んで 素人でも仕組みが理解できるし作れるぜ、ウェーイッ!っていうレベルなんだけど そんな知識あるなら、いま流行りの分野だし、分かり易い本でも書けば随分儲かると思うよ
素人でも仕組みが理解できるし作れる なんて信じちゃうのは素人未満の何かだけだし そんなのを釣って儲ける本書くのは恥
まだ嘘に近いこと書くやつの本が生きてる。淘汰されると信じてる。
>>289 自演博士は必死杉。ワッチョイ入ったらもう自演博士号は役立たないぞ
>>295 専門書は売れてもたかがしれてるし、
一般向けのSFもどきの本を書いて売るには著者の知名度がいる。
極端な話し、ホリエモンの名前なら売れるだろう。
まー、プロから見たら実用性も何も無いものかもしれないけど 実際に自分で作ってお遊び程度でもきちんと動作するものが作れるのは嬉しいものだよ
普及率の高いラップトップでもできるから、素人の参入障壁が低いだけで、素人でもできるものではない。 専門書にしかなり得ないよなあ
ぶっちゃけ
>>271-274 の流れは確かに普通の自己レス補足にしか見えんが
まあなんだ、楽しそうだな
Deep Learningに必要なのは専門知識というよりは教育者の勘に近いものになってきている。 こういう構造にしたらこういう特徴を学んでくれるんじゃないか、みたいな。 ニューラルネット自体はほとんどライブラリ化しちゃってるしね。 分析会社の友人が深層学習は粘土細工だって言ってたけど、まさにそんな感じ。
でもしばらくしたら粘土細工に仕事ぶんどられて 粘土細工の顔色見て生きていかなくちゃならなくなるんでしょ?
機械学習のアルゴリズムより、何に使ったらいいのかでつまずいてる感
プログラミングで言うと言語作ってる側と言語使ってアプリ作ってる側を 積極的にごっちゃにして語ってる感があるのがこのスレ
その混沌はこのスレの問題ではなくて AI 一般に見られる現象。 積極的に文系が騙る珍しい分野
数学だけは深くじっくり自分が分かるまでやるしかないよね 受験数学は時間のなさからそういうことやらせてくれないけど
大学の数学は昔より勉強しやすい環境が整ってるよ 書籍が充実してる 図書館探せば参考書も結構あったりする 昔(30年ぐらい前)は本当に教科書教科書してて頭のいい人しかできませんみたいな感じだった
マセマは指定教科書がわからない場合にだけ手を出す本
マセマなんて読むやつは2通り。 いい成績取りたいだけの効率屋、と正真正銘のできないやつ
マセマは最低限単位を取るための本で良い成績なんてむりむり
>>237 それはただの次元因子分析
大事なのはdiv/gradのほうだろ
>>261 それな
関係文章読んでてビッグデータがビッチデータに見えた どうかしている
Big Data が Bitch Data に見えたという可能性はないでしょうか?
もしそうなら視覚障害あるからどっちにしても終わりやね
ドフサですが?
>>303 経済学のマクロ計量モデルに似てるな。誤差逆伝播法はないけど。
[][Tebla][] } 000-"Yob*RtStrike"[%Kil\]MO,fla>%$9999VLTS 001-GYORLith"0\R"/"ESUBA"%$% HADO-"EM","L","O","NU"###END
Radeon + C++AMPでDNNやろうとしてんだけど、前提となる行列計算がなかなか早くなんないな メーカー公表値通りなら6TFlopsでなきゃならないところが0.8TFlopsしか出ず(大きな最適化はしていない)、こっから最適化してもせいぜい2倍が限度の気がしてしまう GeForceを買ってもやっぱ素人が書いたコードじゃ早くなんないのかな?
C++用のニューラルネットワークのツールキットprimitiv(仮)を作りました。
C++ネイティブでなるべく強い外部依存を排し、使いやすいインターフェイスを目指しました。
CUDA使用時は結構速いです。
https://github.com/odashi/primitiv/tree/v0.1.0-alpha …
>>336 参考のために教えてほしいのですが、CUDAの場合このコードでメーカー公表値の何割ぐらいの演算性能がでるものなんですか?
何そのゴミ 云10年前の精度レヴェル どんな糞モデル作ったらそうなるんだよ
畳み込み層とプーリング層がないみたいなんでそんなもんだろう
CNNじゃないとか関係ない ANNでも普通に作れば92%とかいう糞スコア叩き出さないから
>>345 MLP ならそんなもんだよ、ど素人かよw
いつまでもMNISTの話しなのね 若手の会でも全能アーキテクチャのとこは香ばしい。
>>349 お前のANNゴミすぎだろ
チュートリアルほとんどそのまま動かしてそう
>>351 あれ?話しがずれてるよね?
「普通に作れば92%とかいう糞スコア叩き出さないから」
wwwww
>>350 例えば MASK R-CNN の話ししてもあんたら分からんだろw
>>351 MLP でどのくらい出るの?単なる興味として
>>352 よもや普通というのをチュートリアル通りと思ってるなんてことはないよなあ
>>355 さすがに無理あるだろw
それはともかく、MLPのスコアは?
>>355 ヽ(・∀・)ノ 池沼かよ、チュートリアルだって普通の範疇に入るに決まってるだろ
>>345 確率的勾配効果法だと結果も確率的になるんじゃね
>>353 すればいいじゃん。単語だけ並べてドヤ顔すんなよ。
レベルが低すぎる、話にならないな チュートリアルなんてhello worldレベルのものを普通水準と思ってるとか 薄々感づいてはいたがこのスレのレベルの低さがよもやこれほどとは
チュートリアル動かしたぐらいでドヤっちゃうの流石によろしくない。
ひたすら罵り合って見下してバカにし合うだけで、2chでも有数の不毛なスレだな
見ないうちに初学者向けの本が大量に出てるみたいだけど、確率的勾配降下についてきちんと説明した本出た?
PRMLのアルゴリズムをPython(ほぼNumpyだけ)で実装
https://goo.gl/AkLRJb 真理の探究。つまり、何が正しい筋道で、どこに焦点を合わせればいいかを模索する。これが人間にどういう恩恵をもたらすかというと、人生における試練、トラブルといった、あらゆる問題ごとのスムーズな解決を促すのだ。 例えば、『人は必ず死ぬ』という真理。この真理がわかっていれば、こういう言葉と真剣に向き合うだろう。 『人生は一冊の書物によく似ている。 愚かな者はそれをパラパラとめくっているが、 賢い者はそれを念入りに読む。 なぜなら彼は、ただ一度しかそれを読めないことを、知っているからだ。』byジャン・パウル そういうことだ。つまり真理の探究ができない人は、ここでいう『愚かな者』。毎日を場当たり的に生き、浅はかで刹那的、建設的ではなく、射幸的な人生を好むようになる。 建設というのは読んで字のごとく、毎日毎日、積み上げていくものだ。そういう人は、射幸的のように、幸せを矢で射って当たれば儲けと考える、そういう生き方をする人間とは比べ物にならない結果を出すだろう。 それがわかるのが、記者とイチローのこのやりとりだ。 記者『イチロー選手は、なぜ同じ毎日の繰り返しで、成功できたんですか?』 イチロー『確かな一歩の積み重ねでしか、遠くへは行けない。』 真理とは、自分の人生を最高に応援する、勝利の女神のようなものだ。彼女を怒らせたら怖いが、味方にすればとても心強い。 どちらを選択するかは自分次第だ。
>>369 GTX 1080くらいあればいいんじゃないの?
無駄なことしてて草 最低でもTeslaじゃないと論外だから素直に借りろ
>>373 高いの調べてきたのね。気持ちは分かるけど、合格点であって最高点である必要はないだろう。
GPUといえばAMDからVega Frontier Editionが販売開始されたね 今後の動向が楽しみ
いくらchainer もちあげてみても
>>90 の記事で騙される人がいなくなっちゃったからな
人は基本的に天邪鬼なので他人から半ば強引に何かされると正しい判断能力を失いとにかく抗いたくなってしまうのさ おつおつ
またchainerメジャーアップデートやん。 chainer3よ。
>>374 1080積んじゃった残念な人かな?
Teslaを調べてきたとか言ってる時点でお察しだけど
まあなんというか、ドンマイ
>>382 言葉通じないのね。「調べてきた」しか読んでないのかよ。お前頭悪いってよく言われるだろ。社会人だったらオワコンだなお前
ブームだから 俺のほうが流行の最先端いってるぜって自慢したい人が集まって互いにけなしてる 「XYZってお前ら知らないだろ?(俺は知ってるんだぜ、フフン)」 「作ってみました」→「あーダメダメ、そんなの使えねーよ(対案なし)」
>>383 お前さんレスするごとにボロが出るからもうやめとけ
>>388 そうやって言えばいいってもんじゃない。合格点のGPUについて聞いていた人がいた。無能は黙って見てろ。
このスレではROM専なんだが、PCスペックの話はスレ違い。
まともなソフト開発プロジェクトの経験がないか、他人に使わせる気がないかのどちらかじゃないの
海外勢の後追いをしても優位に立てることもなければ社会貢献にもならないんだしさ OpenCLに対応するとか、日本人研究者に安くASICを提供するとか、何か特別なことをしてほしいな
GPGPUってディープラーニングだけ早いとか? 他の機械学習はどうなの? 例えばkmeansとか主成分分析とかSVMとか
>>397 独自の方向性がないと埋没しちゃうな。
推測だが、SONY が nnabla を出したので対抗的な意味合いで 3.0 に着手したのかもしれん
>>390 そうだね
そしてその結果自分の残念さが露呈してしまったと
ああ哀れやな、マジでドンマイ
>>403 車かよ、でもそれいいなw スポンサーのお許しは出ないだろうがw
>>399 scikit-learnはGPGPU対応してないよ。
>>399 TensorFlowバックエンドに使ってるやつなら効果あるかも
opencv の svm は gpu サポートなかったな。 TF バックエンドでもいいなら tf.contrib.learn.SVM とか一応あるよ
>>393 スレ違いつっても他に該当スレなさそうなんだけど
MNISTはそもそも教師なしでも98%分類できるから簡単すぎてタスクとしてはもう意味がないと思う
>>415 そうだね
しかも誤認識されるデータには人間が見てもわからん意地悪というか卑怯なもんもあるし
そこでの精度が高くなったからといって優れてるかというとそんな事ないもんな
MNISTは実データ見ると人間にも識別できない汚い文字が結構あるからな
スレの大半は chainer と MNIST だな。
>>419 chainerはいいとしてMNIST以外のデータを使ってないのか?
>>419 いや、書き込みの大半がという意味。
>>421 何回も同じことレスしてるな
>>424 アドバイスしてあげよう、エアコンを買え
ニューラルネットワークを超える ディープラーニングという新技術が トレンドだと聞いて
Rやってきたの後悔してる。時代の流れはRなんか全く無関係やん。
>>430 R は deep learning を取り入れそこなったのが残念
AIがすべてやってくれる。もうプログラマも数学者もいらない時代らしい。
>>429 90年代の大学時代にニューラルネット学んで
社会でて別な仕事してて、そっかー最近はなんか
ディープラーニングとかいうのが話題になってるなーで
「深層学習」買って読んだ時のデジャブといったらですね…
うん…多層学習が収束するようになったんですね。
AIが無益な書き込みを続けてると噂のスレはここですか
>>434 収束するだけなら役に立たない
精度が上がったのが大きい
>>434 収束するようにはなりましたが、なんだかんだいって、冬の時代に画像にたくさんラベルを付け続けた先人がいたから今があるようなものです。
>>439 日本人の貢献で歴史に残るようなものはありますか?ネオコグニトロンはいいですw
日本人の話しはしてないんだよね。大量の正解データを用意してくれた時代があったからこそ、今の人工知能ブームは再燃したと思ってるよ。チンパンはお静かに。
>>444 質問しただけで、何故チンパン呼ばわりされなければいけないのですか?
納得がいく説明をしてください。
昔かじっただけのど素人が何トンチンカンなこと言ってるの?
>>444 アメリカで流行ったエキスパートシステムは超えれますか?
エキスパートシステム使えば高度な問題も解決できるというあれです。
>>448 大量の正解データを用意してくれた時代があったからこそ、エキスパートシステムを超えられました
>>448 ブラックボックス化された昨今のDeep Learningよりは説明能力が高いエキスパートシステムや根本の決定木は分野によってはまだまだ現役みたいですね。
超えるには説明能力が足りないって自分はよく言われます。
詐欺だの大失敗だの言われたエキスパートシステムを超えるとは期待できますね。
>>448 超えるというのは実用面で、という意味です。産業利用するにはやはり説明能力がネックです。。
脳とかあらぬ方向へ飛んじゃうんだな。。。変数の説明ってことなんだけれども。
Youtuberヒカルが月収を明らかに!!おはよう朝日です出演
VIDEO 第1回案件王ランキング!YouTuberで1番稼いでるのは誰だ!
VIDEO ;t=61s
ユーチューバーの儲けのカラクリを徹底検証!
VIDEO ;t=504s
【給料公開】チャンネル登録者4万人突破記念!YouTuberの月収公開!
VIDEO ;t=326s
誰も言わないなら俺がYouTuberのギャラ相場を教えます
VIDEO ;t=118s
最高月収5000万円だとさ。年収じゃなくて「月収」な
おまえらもyoutubeに動画投稿したほうがいい
顔出したくないならラファエルみたいに仮面かぶればいい
手っ取り早く視聴数稼ぐには芸能人や人気ユーチューバーへの物申す系動画がオススメ
>>457 自分の脳がブラックボックスなら
自分の脳が出力してる事も信用できないだろ
説明できなくても結果が正しければいいんじゃね 説明できても机上の空論より実用的 論理的に正しそうに見える仮説なんかいくらでもある
説明できないとか理解できないのは 現状の人類の能力が不足してるだけ 適切な解が充分な程度で得られるのなら使う価値はあるだろう 相対論とかない大昔でも重力レンズ現状は起きていた 人類の理解とは無関係に現象は発生する ビジネスに採用するかどうかは経営者とかの判断だけど 他社が採用した結果として売上や利益の大きな向上を得られてると知ったら 自社でも採用するんじゃね リスクを負うかどうかでしかない 失敗したくない心理が勝るんだろう
人間の脳や心理は把握できてないのに 重要な仕事を任せたりしてるんじゃね それは行動を観測して信頼してるから 入出力関係が安定していて 結果が相当な確率で期待と合ってるなら AIだろうが自動運転だろうが信頼するだろう
説得力というか調整に根拠を提示できないと 調整→テストデータ試験OK→本番で精度下がる→あれー? になるからじゃないん
脳とかで返信するくらいだから、この人聞きかじったド素人だなって。一周回ってほっこりする。
>>468 説明できないものの代表例として脳をあげただけだ
飛行機が飛ぶ原理の説明も間違ってたとか言う話もある
世の中の事象を全て把握できてるわけではないって事だ
それでもほぼ安定してれば事業にも使う
>>468 人間の体の仕組みだってまだ解明されてないだろって事だ
でその解明されてない人間をビジネスに活用してるだろ
ビジネスに使う⇒解明されている は真ではない
対偶の
解明されていない⇒ビジネスに使わない も真ではない
解明されているかよりも
安定して期待する結果を得られるかどうかを対象領域で必要な程度で
統計的に確認できればいいだけ
>>471 いい着眼点だとは思うけども、DLはモデルの説明能力が無いという主張に対し、脳だって分かんないから文句言うなという反論は、飛躍がありすぎて的を射てない。ビジネスやったことない学生さんかしら。
まず、そういう反論したら二度と相手にされないことくらい社会人ならわかってるはずだけど。
>>471 そのロジックで水俣病は
足尾鉱毒は
四日市ぜんそくは発生した
後で長期泣くのは勝手だが逃げるなよ
結果を受け止める覚悟があるなら止めない
ただ自殺くらいで解決できると思うなよということだ
理想論語る人は全脳アーキテクチャ勉強会とかいってホクホクしてればいいと思うよ。論理も分かってない人間が何してんだとは思うけども。
医者->人間->よくわかっていない->医者に病気を治してもらうのは危険(?藁)
>>472 繰り返すが脳はただの例えの一つだ
説明できないから使わないと言うのであれば
今使ってるものは全て説明できてると言う事だが本当にそうなのか?
リスクを負いたくないだけ
>>473 リスクを負うと言う事はそう言う事だ
成功も失敗もありうる
問題があることを予見していたのに放置したりするのはダメだが
予見不可能な事は対処のしようがない
リスクを負いたくないなら
発ガン物質が含まれている可能性もあるし
食べ物を摂ったりできなくなるよ
ある程度のリスクは許容しなければ生活できない
ボケ爺学生のポエムか。 レイヤーがどんどん高くなって抽象化されとる。もう反論にすらなってないな。悲しいよ。。
>>477 お爺さんは、無職?論旨が意味不明。耄碌してるから病院行ったほうがいい。電車内でブツブツ言ってそう。
海外勢はリスクを負って新たな成功を掴む もちろん失敗もあるだろう 日本勢は説明できないとか理由をつけてリスクを負わない 結果失敗もしないが成功もしない
>>481 自分が理解できないのを相手の所為にすれば楽でいいよね
(理論的に説明可能なものと、そうでないものでは、リスクマネジメントの観点から前者がより優れている) (それで終わる話だよなこれ)
>>483 繰り返す。モデルの説明能力が現状課題だ、というのが最初。なぜ、脳、飛行機の例え話になる。例え話で満足するな。話題を抽象化するな。論旨をはぐらかすな。
モデルの説明能力が低い、これについてお前は語れ。例え話を混ぜるな。
>>484 もう終わってる。爺さんが車内で騒いでる感じ。
>>485 モデルの説明能力が低い
それと結果が安定する事は別問題
結果が安定してればリスクを負う事で成功のチャンスがある
リスクを負わなければリターンも得られない
>>484 リスクを最小化するには何もしない事だ
それでいいのか?
>>485 モデルの説明能力が低いことを課題としてるのは何故?
本当に課題なのか?
>>487 >結果が安定してればリスクを負う事で成功のチャンスがある
と
>リスクを負わなければリターンも得られない
に直接の関係性がない
もし余計なリスクを負わないで済む手段があるのならばその手段を選ぶほうが有利
よって機能・性能と比較するための定量的評価が間にあるべき
ぶっちゃけちゃうと大金払ってDL取り入れたうちの会社では結果が出なかった
再現性も上手くいく保証も無かったので結局採用されたのは一部のみ
>>492 実運用はかなり限られちゃうよね。結果が良くても「で、なんでその結果が出たの?」って言われて負ける。
>>489 実サービスとしてDL導入する場合のこと。研究課題でも、説明能力の高いモデル構築を目指す研究もされてるから、工学・理学共に課題はある。
>>498 説明能力が高い⇒利益が得られる
ではないな
モデルの説明能力が低いのではなくて人類の理解力が不足している
現象は正しい いくら人間が尤もらしい仮説を立てたところで 実験で証明されなければただの仮説
>>500 間違いない。そして理解無い企業は死んでいくのかもしれない。しかし現状はこう。それに対してどう対象外するかという話しになる。
>>504 現象が正しいとは?
何が論拠?結果でなかったのに
>>506 仮説と現象のどっちを取るかという話
仮説の方が間違っていると考えるのが合理的
>>509 なるほ。
まあ話は一旦止め。
このスレ見てるAIやりたーいて言ってる学生さんに言いたいが、中途半端な知識だけで十分と考えるのはやめて欲しいな。
むしろ学生のほうがどういう代物か理解できるんじゃないか
>>511 そうできるからこそ、近道のみで終わってほしくない。
適当にパラメータなりアルゴリズムのループ変えたり、ちょっとした工夫したら結果良くなりました、みたいなことは企業にやらせとけ。。 どうせそのレベル程度のはマンパワーで米中に負ける。
だれかが2ちゃんねるのレスポンチ読み込ませて実験してるのか
Fラン大学の学生が多いことがよくわかるスレですね
>>510 いいから働こうぜ!
F欄じゃあ入れない会社員ですけどなにか?
まあ
>>492 で触れてるDL売りつけたベンチャーてどこでしょうね?
学習用データがその会社用にあった学習データ使わないと意味がなさそうだね
いやいやプロが手を付けてカスタマイズした結果がダメでした
>>517 F欄のいる会社だったらDL導入できるシードデータすら無いのにね。実務経験のない奴らは困るよね。
パラメータいじったところで、そもそもの解決する問題が、機械学習で解けないなら何やってもだめ。当然だけど。導入ありきは頓挫必至。
入力データに加工が必要な間は取り組めない 画像なら適当な画像ポンポン放り込んで こっちの意図をくみ取った分類を自動学習できるくらいでないと 確かまだそんな域にはなってないよね
そもそも意図なんてこっちから伝えないと 忖度してもらえる訳がない
統計って言えば、AlexaやGoogleがやってるサイト閲覧者の学歴傾向ってどうやってはじき出してるのかな?
http://www.alexa.com/siteinfo/2ch.net やっぱりというか2chは高卒のメーターが振り切ってるな・・・・
最近の技術レベルてどんなんやろ? リンク貼りがいなくなったから確認出来なくなったね。キータ見てねーし イジングモデルモドキからのレベルアップされてんだろうか? (全然証明になってなかったけど)
人工知能って中身ブラックボックスだから怖いね。 少し詐欺要素学習させたら、それが意図的なものか問えるのかね。 いくらオートメーションしようとしても、グレーなゾーンでせめぎ合うってのはいつの世も一緒だね。
>>535 はやく素人の浅はかな問題提起を論破してよ
>>534 A ならばB, B ならば C ゆえに A ならば C
という当たり前のロジックを実現できないものか
>>539 出力せずに水面下に蓄積されるリスクは外部からテストできないでしょ?
chainer三ヶ月後にバージョン3作るとかふざけてるな 結局LTSも出す気配ないし 研究者としては優秀なのかもしれないけどソフトウェアエンジニアリンクとしてはダメダメだな
何を今さら…日本人しか使ってないのに英語の貧弱なドキュメントしかない時点で察しろよw
あーやっぱみんな気づいてたんですね。 日本発だから貢献しようと見てたんだけど、ソースコードも見ていてイライラするし、おれがアホだったってことだな、時間損したわ。
それなりに役目は果たしたと思う けど、googleやFBが本腰をいれてきたゃうと無力だ。変に対抗意識を持ったのも悪手
思想はTFとは違うし、戦えるかなと思ったけどだめだった
企業は綺麗事言っても金を稼ぐことが第一、故に 日本語ドキュメントでも何でちょっとでもシェア、金稼ぎを広げるために 思いつくことは出来ることは全部やる、という開き直りが無いんでしょ。 企業人がなくて大学や研究者というプライド、というかお公家さんみたいなところがあるから仕方ない。
>>537 > 少し詐欺要素学習させたら、それが意図的なものか問えるのかね。
詐欺、要素、意図的、問える、で、もう曖昧すぎてモデル化できない。そもそも作れないんじゃなくて、チャンスレート以上に識別できるモデルは作れないってことね。
P社の体力ではライブラリを短期間で高度に作れなかったんだな。だいぶChainerに注力してたはずだったけど、足りなかったんか。。。
最近Deepじゃない機械学習もやってるけど、フレームワークがないので全部自分で作るしかない 実装できなければ学習させることもできないから大変
>>550 いいじゃん手作りのほうがいろいろ組める
>>550 pythonではない?ということか。なら、そうだね。
有名なフレームワークを使っていればニューラルネットワーク以外も記述できるんだよね、名前に「NN」とか入ってる専用品みたいなのを除けばさ 質の低いブログがニューラルネットワークの紹介ばっかしてるせいで、「機械学習フレームワーク=ニューラルネットワーク専用」との勘違いが生まれてるんだろう
>>546 設計思想という意味では PyTorch が引き継いだので Chainer はいらない子になってしまった
>>549 開発の主力は優秀なんだろうけど、層の厚さがグーグルとでは違い過ぎる。chainer 3.0 まで始めちまうしw
>>558 557 さんじゃないけど、TF の TFLearn は NN の比重が小さいよ
>>555 プロトタイプはnumpyモジュールとか使ってpythonで書いておけば
どうしても高速化とかしたければそのままpython->C化してしまえばいいから
C/C++の出番はほとんどなくなりつつある
ライブラリだものね。でも些細なことに気にしすぎやろw Cython使いたいの分かるけど、ならC++で開発しようよって思ったりする。
研究力の上限は実装力で決まるっていうのが最近分かってきた 実装難易度が高すぎる手法は理論だけ作れても実装できなければ論文が書けない
理論がわかるなら実装は大したことじゃないと思うんだがな どちらかといえばマシンリソースの確保と、入力データの準備の問題に尽きると思う ていうか尽きている
マシンリソースの確保なんてクラウド使えばいいじゃん
理系だから数学が得意だからで、コードが書けると思ってたら大間違い。
それな、どちらかというと作曲寄りのスキルというかセンスが必要
>>568 実装できる人が日本に数人しかいない手法とか結構あるみたいよ
需要がニッチ過ぎて知ってる人が超絶少ないとかそういうんじゃなくて?
いや、数学の証明を自分で考える、の方に似ていないか?
僕が研究で使っていた遺伝的アルゴリズムはまだ現役ですか?
君が研究で使っていた遺伝的アルゴリズムは、多分もうゴミと化してるよ
>>573 日本に数人でも中国には千人単位でいるから価値は低い
遺伝的アルゴリズム、進化的計算といえば? 伊庭さんです。
ちなみにマイネオのsimの買い方は
通常、初期費用3,000円+税がかかりますが
下記のリンクからAmazonさんで安いエントリーパッケージを買う
→
http://www.top1.pw/t/33 下記の招待リンクから契約する
→
http://www.top1.pw/t/34 そうするとAmazonさんのギフト券が1000円分貰えるので
初期費用分のエントリーパッケージ代が実質無料になります!
データ回線なら解約料もかからないので、損はないですね。
マイネ王から月末に1GBのパケットももらう事ができるのもお得です
語の境界についての情報を明示的に与えることなくキャラクターレベルの単語埋め込みを学習させるうまい方法ないですか。
知り合いの藝大生に「これからは俺たちアートが真ん中を走る時代だよ」って言われた9><
玉、金、銀、桂、香・・・経済戦争をイメージしているな
>>589 キャラクターレベルって言ったら文字単位ってことだから当然1文字単位で一意に決まるだろう。
形態素解析辞書なしに単語分割をやりたいということなら、Sentencepieceを試してみては(指定した語彙数で分割してくれる)
僕が現役の時に使っていたSURFなどの特徴量抽出はまだ現役ですか?
ディープラーニングもロジスティック回帰みたいなもんやし
>>589 文字レベルの単語埋め込みってどういうことなんですか
>>589 どうしてその制約が必要になる?
実現方法は結果を使うユーザにはあまり関係なくない?
map推定と最尤推定の違いがわかりません ベイズ推定が最強ってことでいいのかしらん
簡単にいえば最尤推定はMAPの特殊ケース MAP推定で事前分布を一様分布(非正則な事前分布なら定数)としたら最尤推定
超解像やりたいんだけど、Kerasで独自損失関数を定義する方法がわかんないや ここに関しては生TensorFlowより退化しちゃってるんかな・・・・?
>>443 『量子コンピュータが人工知能を加速する』って本を読んだんだが、結局何が根本的に効いているのか分からなかった。トンネル効果って言葉で誤魔化されてる。
何より理屈の基礎式の提示がない。
理系ならば理解に困らないくらい簡単な式なのに・・
トンネル効果のせいでCPUが微細化、高速化できないというのに。
yet another non von neuman archtecter
筆者には『トンネル効果』って言葉無しで人に説明してといいたい おそらく出来ないだろうけどw
本には機械学習のサンプリングに効果的とあった。何のこっちゃ? PCAかオートエンコーダ、RBMの計算に有利なだけ??しょぼ
東芝の初期の超解像アルゴリズムって GANみたいだった?
量子焼きなまし法は、量子ゆらぎを用いた過程によって、 解候補(候補状態)の任意の集合から任意の目的関数の最小値を探す一般的方法である。 主に探索空間が多くのローカルミニマムを持ち離散的である問題(組合せ最適化問題)に対して用いられる。 と、最初これはあくまでコンピュータでシミュレーションするアルゴリズムとして 提唱されてたが、カナダの量子コンピュータベンチャーが これの専用機ならいまでも作れるだろうと2007年に実機作って 組み合わせ問題の解をハード的に求める量子コンピュータを実現した。 >探索空間が多くのローカルミニマムを持ち離散的である問題(組合せ最適化問題)に対して用いられる 計算を一発でできるハードの意味がわからないレベルの子は このスレに迷い込む意味がねぇんじゃねぇの。 何しにきたの?ぼうや
機械学習とデータマイニングはもう切り離したほうがいいんじゃない?
>>620 一般的方法?笑わせんな。そこまで一般化されてない。
単独磁場項と相互作用項の比重を0⇒1に変化させたら、偶々上手くいっただけ。
スピングラスモデルにて唯一の解が得られる理論的な保証がない
3m×3mのでかい冷却装置じゃないと計算出来ない品物
Webエンジニアがやりたいことドリブンで機械学習に入門してみた
https://goo.gl/mqAV6v お前ら雑魚ピーなのは分かったからこれを参考に汁
>>617 読まずに推測で書くけど
トンネル効果で極小値にハマってるところからするっと抜け出せるとかそんな感じじゃね
>>622 一般の組合せ最適化問題を解けるんじゃね?
あるいは等価な組合せ最適化問題に帰着できるとか
>>627 ななめよみだけどシュミレーテッドアニーリングを使うらしいよ
少しだけ機械学習に興味あるんですが、機械学習ってどんなこと出来るんですか? ちょっと勉強しただけで面白い事出来たりするんですかね?
ちょっと勉強しただけでできる事の99%以上は 他の人も容易にできる事であり、かつ、おもしろくもなんともない事である
機械学習を勉強する人って (1)仕組みが分かりたい (2)役立てたい どちらが多いですか?
機械学習/DMと深層学習/AIはもうこれマジでスレ分けるべきだろ、ぐっちゃんぎっちゃんやんけ
まあ役立てる方だろうけど まだ技術として完成してない部分が多いから ある程度仕組みを知らないと使いこなせなそう
なんか機械学習のほうが勉強するのは難しいのに、 深層学習のほうが役に立つというのが不思議です。
>>637 仕事で役立てるとかなら分かりますが、勉強している人の大半は趣味で
勉強しているのではないかと推測します。
趣味で勉強する場合でも、(1)ではなく(2)なんですかね?
>>639 その推測に根拠はないな。普通に仕事で使ってる人も多いよ
個人じゃTeslaとか用意できないからな。必然的に仕事関係になる
>>640-641 そうですか。
この分野は理論的な面白みは薄いように感じます。
役に立ってなんぼといった感じですね。
機械学習に理論なんて初めからない やってみてうまくいけばそれでオッケーの世界
初学者、思想語るやつ、ハードの知識ドヤりたいやつ(GPU語るばか)は別のスレに行ってくれ。
>>651 そんな都合のいいことが許されるわけないだろう。
許してほしけりゃ前言を撤回し謝罪しろ。
>>649 GPU 問題は避けて通れないだろう
>>651 ふざけてるのか?
>>651 の学会発表レベルって
>>513 の言ってる内容程度でしょ
>>652 お前も出してるなら文句言うなよ。まさか、出してないなんて言わないよね?
高卒様がよく「学会!学会!」言ってるけどさ 学会って一体どんな存在だと思われてるんだろうな
きっと、高卒様にはシンポジウムみたいなものだと思われてんだろう
>>656 社会不適合者が傷を舐め合うとこじゃないの?
>>655 一般企業は積極的に学会出さないよ。あと悪いけど学会のレベルの低さにがっかりだわ
>>660 自分の所属していた学会のレベルが低かったからといって一般化しないように
>>660 人工知能学会とかもう、めちゃめちゃだよね
日本数学会が評価高いって… まぁ大きなところはどこも似たり寄ったりだが
>>660 IEEEとか分科会によっては面白くない?
>>665 おれ数学専攻だけどあんた何様? アメリカ数学会ででも発表してるのか?
どのがっかりも外国の研究の観察日記ばかりだからな 学会に出る時間があったら計算し続ける方がましだろう
>>668 行ったことないだろお前。背伸びしなくていいぞ。
こんなとこで学会とか言ってる奴も大概レベルがお察し
麻雀界にもAIの黒船到来!?「爆打 vs 人類 麻雀AIは人間を超えたのか? 」麻雀スリアロチャンネルにて7月23日(日)21時00分より放送!
http://mj-news.net/news/2017072072013 麻雀は賢いAIを使わずとも簡単に人間を抜けそうだけどな。確率論で。 人間よりも計算速いし、囲碁・将棋みたいに膨大な計算もいらないだろうし。
常に不正疑惑が伴うオンラインの遊戯しかも麻雀で、AIがどうこうなんて笑い話
きみがこんな場違いな所に迷い込んで なにがしたいのかがわからない
囲碁とか将棋とか麻雀とかでAIはもう飽きちゃったよ。
そもそもトップレベルの研究者は囲碁とか将棋のAIとか眼中になかった ああいうので熱くなっているのは素人
今後はディープラーニングでクオリアも生まれるようになるのですか?
そもそも運要素も加味される麻雀でAI参戦させるとか馬鹿か それこそ確率論の独壇場やろ、結果丸見えでマジで下らん
地味だけど役に立つ成果より、将棋とか囲碁で派手に飛ばす方が、受けがいいから研究者としては悲しいところ。
ブラフ含めて「読み」も確率統計のアプローチが効かないわけではない だが、ただでさえ選択の説明が難しい機械学習利用を、 運要素の高いゲームかつ公平性の証明が難しいオンラインで、 さらに染め手の判断や待ちの評価等特化しなければならない要素が多く応用性に疑問、と研究分野として問題多すぎでは 挙句に場が課金商売の対戦サイトという……
>>690 むしろ、計算的なAIアプローチならまず最初に
相手の状況が実際はどうであるか?の確率計算して
それを戦略評価のベースにするから
「これがブラフである率は何%」って出すだろ…
ずっと基礎皆無で変なこと吹かしてるおまえほんとどこから迷い込んできたのよ…
>>694 機械学習というよりルールベースでいける希ガス。
誰も勝てない、みたいなのが確率の支配されてる(と思ったけど麻雀って違う?)と目指すところが曖昧になるなあ
へぇー相手の手配を確率で計算できるのか。AIすげーな。もう完全にエスパーじゃねーか。
>>692 視野を広げればAIを使う余地はあるけどな
>>694 頭悪すぎて笑う
こういう役立たずがごまんといるんだろうなぁ
>>697 例えばどのようなものがあるか教えてくれんか
まず特化部分は正直役に立たんだろう?
>>699 テキトー言ってるだけだよそいつ。
視野の問題じゃない。
なんかカードゲームの確率計算を研究してる学者がブラックジャックの確率計算をして ラスベガスで実践して億万長者になってた実話があったね
>>702 Convolution層とかがあれば人気がでたろうにね
ところで、ランダムウォークといって、相場の値動きは予測不可能ということをお偉い経済学者様が主張してるんだけど ガチの人が機械学習で実験したらどうなるの? TensorFlowで為替の終値ベースで学習させたら、為替予測の精度が90%になったよ、とかいう ありえない記事を読んだことあるんだけど、機械学習で厳密にガチで検証したら、相場の値動きは本当にランダムウォークなのかどうか知りたい 自分は年間数千万稼いだ人の1年間、数百回分の実取引データを持ってるんだけど なんと数百件の取引中、わずか数件の取引が年間全ての利益を稼ぎ出してて、それ以外の取引はトータルでプラスマイナスゼロ 相場の時系列の値動きって本当にランダムなんじゃないかと思うんだけど、違う結果が出たら面白いのでは
実績だけで考えればノーベル賞取ってるほうを選んだほうが良い
>>705 前提として投資家はあの本を信用してない。テクニカルを全否定してるのだから。
機関投資家がテクニカルで運用してる以上、相場はテクニカルの強い影響を受ける。
その稼いだ人の結果を聞けばどういうシステムかは歴然。
多少工夫はあるだろうが基本的な順張りシステム。
ブラタモリを録画したつもりだったのに、今見てみたらマツコのAI番組だった
>>705 効率市場仮説のことを言っているんならweak型については
成り立っているといわれている(データと矛盾しない)
>>699 書こうかと思ったが
下のやつがなんか言ってるから書かない
>>705 ランダムウォークとは何かを定義しないと判定のしようがないんじゃね
一定時間ごとの値の差でヒストグラムにしたら対象分布になることが多いと思うけどな
利上げとかニュースがあると対称性が崩れると思う
昔からNHKの理系番組は見る気すらなれん。 一貫して、説明しても分らないだろうから説明しない、だからな。 製作側が理解できないまま番組を作ってるのがバレバレ。
NHKに理系分野がわかるやつが少なすぎ。まあ人事が文系だしなw 大体話が浅い
マジでそれに気付いてない奴が多すぎる 数学がどうとか恥ずかしげもなくドヤ顔で言い出すからなw
>>724 ( ´,_ゝ`)プッ おまいう www
その深い知見を元にした見解を教えてくれ 機械学習って今後、どのくらい先がありそう? 個人的にはどうにも先が見えないというかあんまり先がなさそうに思えて仕方ない プログラムの自動開発なんてまだまだ非現実的な領域だし
まあ何日もCPUGPUぶん回してハンコほどの画像の認識率がやっと9割だからな 最近の目覚ましい成果ってやつはほとんどレガシー近似でスピードを稼いでるだけ もちろん認識率もそれなり、ディープラーニングはそれをごまかす目隠しにされている 今のコンピューターの仕組みのうちはいくら頑張っても限界が見える 仕組みが変わってからが本番だろうな
先、をどの程度想定しているかによるけど、「将棋・囲碁のデモ映えするものではなく、 実社会にサービスとして使えるもの」と解釈する。 すると、実は音声認識・画像認識では単純なタスクではかなり既に精度高く使えてる。 使えてる理由は、音声も画像も、「識別したい対象の分布が既に識別的である」から。 既に解ける形として分布が存在しているわけ。 とすると、「人が既に識別できる内容・業務」には使えるだろうね。 言語の意味理解とかは当面無理だろうな。
>>728 ノイマン型五十年、下天の内をくらぶれば、夢幻の如くなり
で、いつ次世代コンピュータって出来るのさ?
上にも出てた話題で麻雀のAIがあって論文読んで来たけど、何万個も特徴量作ってロジスティック回帰して、それにシミュレーション組み合わせるみたいな泥臭いことやってて草生えた 同じ作者が強化学習も試してみたけど寧ろ弱くなってしまったって言ってたけど、ちゃんとやれば絶対強くなるよなあ
高卒フリーターおっさんが日本をだめにしてるんだってさ そんなのAIじゃなくてもわかりきってたけどね
分かりきったことなのに今更話題になるなんて、今までデータサイエンスのプロは何をやってきたんですかね? 自分の好きなデータでシコシコしてたとか?
他のスレからのコピペだが、
↓
瑕疵担保責任(かしたんぽせきにん)
納品されたシステム、プログラムに不具合があった場合、10年後でも無償で修理してもらうことが可能になった。
民法改正で事実上期限が「無制限」になった
不具合を指摘されたらすぐに行動をとるべし 納品物に不具合があれば損害賠償を請求される可能性もある
http://www.atmarkit.co.jp/ait/articles/1706/26/news014.html http://itpro.nikkeibp.co.jp/atcl/news/17/052601508/?rt=nocnt 改正法では欠陥に気付いてから1年以内にITベンダーに通知すれば、通知後5年以内は修正や報酬の減額などを求められるとしている
全ベンダーが泣いた民法改正案を解説しよう その1
http://www.atmarkit.co.jp/ait/articles/1609/14/news009.html http://www.atmarkit.co.jp/ait/articles/1609/14/news009_2.html http://www.atmarkit.co.jp/ait/articles/1609/14/news009_3.html ポイント1:修補や損害賠償、契約解除の期限がなくなる
従来あった「瑕疵担保期間は引き渡しから1年」という考えはなくなる。
条文にある通り、注文者は成果物が契約の目的に適合しないことを発見したら、
その「発見したときから1年以内」ならさまざまな請求ができる。発見が10年後なら、11年後まで請求可能なのだ。
もっとも、現実のユーザーとベンダーの関係でも、たとえ契約書に「瑕疵担保責任期間は納品から1年と」明記されていても、
「2年目以降は不具合の修正に対応しない」と主張するベンダーはまれだ。多くの場合は、納品から何年たっても、
バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。
重大な脆弱性が現バージョンから発見されました。こちらでアップデートしたところ、起動ができなくなりました。 至急弊社に来て修正作業をお願いします。なおお金は払わない。また営業に損失が出たので損害請求もする。 客が瑕疵担保責任法の法改正を知ってくると思うから、今後5年無償保証をお願いされるだろう 営業がそれでも仕事を取ってこれるか?たぶん無理だろう。無限に直していたら赤字になる。 こういう保守に弱い言語、ころころ仕様が変わる言語は仕事として発生しなくなってくる。 これは変わり目だ。お前らも早く逃げたほうがいいぞ。RubyやPHPなど動的言語は確実に廃れる。 保守に強い言語のみ生き残れる。
機械学習のベンダーさんはこの辺保証してくれるのでしょうか?
ちなみに重要な点をあげると下記 改正案だと、「経費精算業務の効率化」という契約の「目的」達成を期待できるシステムを作ったかが問題になる。効率化に資することが期待できると「客観的」に思えるものを一定の「品質」を持って納めることが必要
ソクラテスは言った『真理の探究なき人間は、生甲斐のない人生だ。』 真理の探究。つまり、何が正しい筋道で、どこに焦点を合わせればいいかを模索する。 これが人間にどういう恩恵をもたらすかというと、人生における試練、トラブルといった、あらゆる問題ごとのスムーズな解決を促すのだ。 例えば、『人は必ず死ぬ』という真理。この真理がわかっていれば、こういう言葉と真剣に向き合うだろう。 『人生は一冊の書物によく似ている。 愚かな者はそれをパラパラとめくっているが、 賢い者はそれを念入りに読む。 なぜなら彼は、ただ一度しかそれを読めないことを、知っているからだ。』byジャン・パウル そういうことだ。つまり真理の探究ができない人は、ここでいう『愚かな者』。毎日を場当たり的に生き、浅はかで刹那的、建設的ではなく、射幸的な人生を好むようになる。 建設というのは読んで字のごとく、毎日毎日、積み上げていくものだ。そういう人は、射幸的のように、幸せを矢で射って当たれば儲けと考える、そういう生き方をする人間とは比べ物にならない結果を出すだろう。 それがわかるのが、記者とイチローのこのやりとりだ。 記者『イチロー選手は、なぜ同じ毎日の繰り返しで、成功できたんですか?』 イチロー『確かな一歩の積み重ねでしか、遠くへは行けない。』 真理とは、自分の人生を最高に応援する、勝利の女神のようなものだ。彼女を怒らせたら怖いが、味方にすればとても心強い。 どちらを選択するかは自分次第だ。
>>742 学生さんかな?
仕事やってる人にとっては重要な改定
>>744 今でも訴訟上では普通に「契約の要旨・目的に沿った履行がなされたかどうか」がしっかり判断されてる
瑕疵の有無は商法原則も考慮しなければ意味がない
そんでこの記事はしれっとこんなこと書いてるし
> 多くの場合は、納品から何年たっても、
> バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。
麻雀は運じゃないようだな。 確率的には75%負けて勝ちは25%だから、その75%の負け方でほぼ強さが決まるとみた。 他3人より速く勝てるかと、負けるときは点取られないように負ける。
>>747 統計的には上手な人ほど最下位時の持ち点が少なくなるよ
麻雀は運ゲーだから論外って言うけど、何千と対局を重ねれば実力差ははっきり分かるよ
ただ一回の勝負で強さは分からないから電脳戦みたいな興行は難しいだろうね
単純化すればいい話。麻雀でAIはブラフが分るか。単純化したゲームでやればいい。 二人じゃんけんで、先手と後手に分け、先手は先に手を決める。 後手は先手に手の質問していい。先手は嘘をついていい。そして後手は手を決める。 プロの雀士はこのルールで優位に立てるがこれでAIは優位に立てるか? どこかのAI連呼してる後出しインチキじゃんけんシステムじゃないのだから、別にAIが優位に立てることはないだろう。
(なんで既存の家庭用ゲーム機のアルゴリズム考えてる人よりレベル低いのが 迷い込んできてるんだろうな。本当に)
ここはもう、高卒だらけになったんだよ 主にテレビ報道とコンピューター将棋のせいでな
ほんとにそれ 機械学習に数学がいるとか吠えてる奴とかマジで草生える
ゆとりの即レス低脳馬鹿煽りだけか。ブラフを確率計算できるというだけあってここはレベルが低すぎる。
統計分析スレで数学いらないとかまで言い出すアホまでいるし。
お前さんの例え分かりにくすぎやぞ、ゴミみたいな表現力だし ブラフが確率で云々とかマジで脳ミソ数式で出来てるんじゃねーの?ってレベル DQNとか知らなそう
>>757 脳みその仕組みは単純。神経細胞も単純。モデル化して数式で現される。
ここは数学できない低脳馬鹿文系がくるところじゃねーぞ。
煽りしかできないゆとりハエがまとわりつくw うざいw
いやー知能とか勘違いだよ。麻雀は知らないからどうなってるか知らんけど
少子化で今の大学生は昔の中卒レベルやで。偏差値50以下の大学あるとか正直信じられへんわ。 大卒でも恥ずかしいのに高卒連呼は聞いてて恥ずかしいわ。煽りだけしてるのも馬鹿丸出しや。
ディープラーニングのアウトプットの速度てどれくらいかかるもんなの? ほぼリアルタイム?
>>756 統計学は数学科で一番出来の悪い奴が行くところとか。
また統計学は数学でなく算数だとも言われている。
>>764 計算量の問題だよ。一般化できない。即計算終わるのもあるし、7日とか更にもっとかかるタスクもある。
>>765 自分は数学科だったけど、統計とか数値解析はイロモノに見られて人気がない。
希望の講座の選択は成績で決まるから、必然的に統計とかは成績の悪い人がいくことになる
もちろん例外はあるけどね
まだ「統計学」は応用数学としての体裁はあるよ けど、機械学習ともなるともはや応用数学ですらない
>>768 世の中は数学だけでできてるわけじゃない
数学でなくてもいいんじゃね?
学科の話しいつまでしてんの。学科を超えて研究グループ作って研究進めていくとこが成果出してきているのというのに、いつまで数学ガーとか統計屋ガーとか言っているんだよ。。
>>770 何でそんなに攻撃的なの?仕事でやらかしたの?
成果も何もただやってみただけだろ? 新しいことは何もしてない
>>767 応用数学の方がまだ就職の面で有利だろうから人気ありそうなのに逆なんだな
アクチュアリーとか花形じゃないんか
>>771 お前みたいな高卒がいるからだろww
もしかして馬鹿?
>>773 本流はどっちとかさ、どうでもいいんだよ。統計屋は成績悪いとかさ、どうでもいいんだよ。
お前は輪をかけて頭が悪いことには変わりがないから。
「高卒だらけの土人国家日本」って、韓国にも馬鹿にされるわけだわ
むっかしい 頭良くないやつはさっさと諦めたほうが良いな
高卒様は人工知能の前に知能をなんとかしたほうがいいな
人工知能があーだこーだ言ってるのは大抵ニュースや宣伝を妄信してるやつだから放置でおk
>>767 あほなことゆうたらあかんで。イロモノに見られてるのはおまえの個人的感想や。
googleから公務員まで統計屋は専門の就職枠があるんや。あらゆる分野で必須な科目や。
数学やってて統計学は馬鹿がやるものとかイロモノやなんて思うてる奴にあったのはおまえが始めてや。
ほんま聞いてて恥ずかしいわ
なんやそういう意味かいな。単発IDの煽りばっかなのは文系、低学歴ちゅーことやな。 議論できる脳みそはないけど相手してもらいたいから煽るんやな。 恥ずかしすぎるわ。少しは自分で勉強せぇっちゅうねん。
でもまあきっと、高卒って単語に敏感に反応するから高卒なんだろう
>>783 あんた高卒か文系かどうか知らんが、あんたの言っているのは工学部数理工学科なら正しいんだか、
理学部数学科では767さんの言うとおり落ちこぼれの行くところ。
>>783 数学科なら応用数学は下に見られるよ。もっとはっきり言えば、純粋数学の才能がない人がやるものと数学科内部では思われてる
TensorFlow に負けるのは仕方ないけど、PyTorch にも負けちゃうのね
https://trends.google.co.jp/trends/explore?cat=5& ;q=chainer,pytorch
スレじゃ数学コンプな人が目立つけど、意外に数学科卒の人も多いのか
機械学習のハードルが低くはなるが
>>783 恥ずかしいのはあんただよ。
理学部数学科の何たるかを知らないなら、偉そうに的外れなことを言うのやめーや w
そもそも一流大学の数学科学生の夢はフィールズ賞受賞だぞ、日本人なら代数幾何やろ www
すれ違いすぎ 機械学習は統計学じゃないし数学とはもっと違う
純粋数学とは違うが技巧の工夫には知識を前提とした数学センスが欲しいな。
但し、あまりに一般人の直感から離れると流行りにくくなる。 結果が大きくよくなるのであればその限りではないが‥
数学センスとか邪魔でしかないからマジで どちらかというと必要なのは美術的センスなんだよなあ
統計野郎は数学科では下ァ! で?下だから、出来の悪いの多くてあてにならんってこと? 結局何が言いたいのか、お前らがコンプ持ち以外わかったことがないよ。
>>797 創造力とかその類
数学なんかより遥かに有用やぞ
>>792 愛媛大学理学部数学科では中川 祐治という先生が画像認識(パターン認識、物体認識、画像理解等)に関する研究をしてるぞ。
http://www.sci.ehime-u.ac.jp/research/researcher.html >>793 暗記数学でいいと思う。
早く石村夫妻による「機械学習の数学」という本を東京出版から出して欲しい。
>>803 愛媛大学理学部数学科では中川 祐治という先生が画像認識(パターン認識、物体認識、画像理解等)に関する研究をしてるぞ。
http://www.sci.ehime-u.ac.jp/research/researcher.html 全然やってないじゃないか。数学科 画像認識 で検索して見つけたくらいで貼るなよ。全然インパクト無いやつじゃんかよ。ギャグに数学化はだめじゃんwって思うわこれじゃ。
>>810 自分よりまともだろう。こんなとこでカキコしていない。
>>811 してるかもよ。ほら、サイトを貼ったのが、、、自演だとしたら。。。
こんな批判しかされないようなスレで自演なんてしないだろw
なんかこのスレ遂にchaner信者も捨てて、ただの愚痴スレになったな
>>795 美術的センスってwwwあまりに程遠い分野でしょw
>>625 「機械学習入門 ボルツマン機械学習から深層学習まで」という本いいな
図書館にあったから借りてきたが、中学数学すら覚束ない俺でも読みながら逐一分からないところをググって数学やり直してたら理解できたわ
中学数学できないやつが読めるなんてだいぶ内容薄いんだなww
Web記事や本など文献の価値を、Web上の記述を収集し分析することで推測 ステマされてるとステマせざるをえないほど中身カスと推測して価値大幅マイナス 論文の価値?知らんがな
数学はセンスではない センスだと思ってるやつが支離滅裂な証明や教科書を書く
スタートラインとしては修士から。 自分の専門分野もないのに何を学習させる気だ?何のデータを掘る気だ?
他の分野でもそうなんだが 「お前らが小説とかムリムリ、ボクは国語の偏差値70もあるんだゾォ!」 って奴の意味がわからないw ニヤニヤ黙って笑ってもらいたくてやってんのか。
趣味でニューラルネットワーク作るの楽しいやん? 活性化関数を変えてみたり、ノード数を変えたり、色々改造するのが楽しいやん? 一回学習させるたびに重みがどう変化するかとか観察したりして、うへぇ~ってなるやん? 昔、CPUの創りかた、とかいう名著があったけど、あの感覚、趣味の世界
「かつて、ソフトウエアやデジタル製品は基本的に、プログラムされたルールに従って動作するものだった。それゆえ、優れたプログラマーを擁する国が優位に立った。 しかし、深層学習のアルゴリズムが出現し、動作のルールは、大量のデータから抽出したパターンに基づいて作られるようになった。利用できるデータが多ければ多いほど、アルゴリズムは多くを学ぶことができ、AI製品は賢くなる。」 これで笑った。
データ数がある or 集まりやすい ところは実は限られていて、多くの企業が困っていて本当に解決したい課題においてはデータがそもそも集まりにくい・集める仕組みさえない、という特徴がある。 データ量だけで優劣がつくものではない。 肝は「データを集めるところからデザインできる」ことだと思う。 まだこの段階ではどこも勝ってない。
youtubeの例をあげるまでもなく、グーグルだのマイクロソフトなどは欲しいデータを持つ企業を買い漁ってるわけだが
しかしまあ、この記事は(っていうかEconomistの翻訳だが) 個人情報使うなとかぐだぐだ抜かしてると規制ゆるい中国に負けますよ、と言いたげだな
知らんがな 顔からおっぱいを推定して表示するAIはよ
「おっぱいマイスターが人工知能に敗れる!」その一報は業界を震撼させた!
>>842 この発想よ
でもどうせ実装出来たとしてもすぐに規制されるんだろうな
規制大国ジャップランドだし
うっわ、低レベルすぎて引く。 やっぱ高卒スレの噂は本当だったのか。
>>842 何ヶ月か前に出たけど叩かれたから記事が消えたよ
だいたい、何業界なんだよ・・・顔から乳の大きさ推測なんて役に立たんわ それより
>>839 本当に解決したい課題においてデータが無いだけでなく集まりにくくその上データを集める仕組みさえ未だ無いのであれば、そもそもその課題は本当に解決したいと社会は思ってるのだろうか?
「重要なことは、正しい答えを見つけることではない。正しい問いを探すことである。」
「間違った問いに対する正しい答えほど、危険とはいえないまでも役に立たないものはない。」
中韓が開発したAIが思ってる正しさと 日本製のAIの思ってる正しさは違うだろうから 輸出するときに日本製AIだけが売れるようになるといいね
>>853 いい視点だと思う。
もちろん、不要なのに「よっ!ディープラーニング!」みたいな取り組みも0じゃないよね。
しかし実際データセンシング費用は下がってきたから、今までとりたくても取れてなかった・取りたい情報は第1次、第2次産業では存在する。
第3次では集まってるだろうし買えばええんやろうけど。
>>853 交通事故は社会の無くしたい課題だが
交通事故を無くすことに関するデータは十分に集められているだろうか
>>853 どの会社も売上を伸ばしたいと言う課題があるが
そのためのデータとして何を集めればいいか明確になっていない
課題はあるがデータが集められていない例
Deep Learningのサンプルコードで、 説明変数:X 目的変数:y ってなってることが多いんだけど 大文字と小文字をどう使い分けてるの?
普通ならXが行列かテンソル、yがベクトルじゃない?
>>856 交通事故はルール変えたり設備を変えたり試行錯誤ができないから難しそう
自殺を減らすのはどうかな
じゃあ交通事故を減らすために自殺を減らすために雇用・賃金の安定を図るために優秀かつ善良な政治家を選別する機械を
>>861 そういうことか(ノ∀`)
なるほどねアザス
たまにアマゾンの専門書に「なんだかさっぱりわからん!説明が悪い」って 難癖つけてる『その域に達していない人』いるよね。
説明が悪い? 数学は世界の共通語。 数式で示せばいいのにそれをやらないし、どうみても厳密解でない。 本にも書いてあったから著者らも気づいていることかと思たが?
あっと失礼。
もしかして
>>868 への突っ込みではなかったか。
数学がどうとか言ってるけど、あきらかに
問題文の読解ができなくて算数の成績も悪かったでしょ
きみ。
>>870 >>872 97のにあるハミルトニアンをもとに時間発展のシュレデインガー方程式解いてるだけ。
>>873 どのへんまちがえてんのかな?
反論があるならスレの中でやろうか
ここでもいいけど。
どうしてこの量子なんたら法が批判されてるかわかった気がするわ。
きみの主な活動場所は学会じゃなくて2ちゃんねるなんだ?
>>874 時間に依存するハミトニアンだから簡単ではないが
H=Ε(t)*ΣJσ_iσ_j+Γ(t)*Σσi
>>879 あくまでここで議論するの?スレ違いなのに‥
で、どのように修正すればいいんでしょうか?
↓のこれとかそうなんだけど
量子なんちゃらの研究を批判する研究者をずっと批判してんだよね。
http://kenokabe-techwriting.blogspot.jp/2015/01/blog-post_28.html?m=1 いちいち『D-wave』って単語がないと説明ができないんだろうね。
>>879 こっちから質問していいかな
(なぜスレちなのにここで進めるか意味不明だけど)
http://rio2016.2ch.net/test/read.cgi/denki/1440293690/ の102にある①を②変えるという話は思う?
結果は変わる?変わらない?
どっち?
883の下から三行目訂正 の102にある①を②変えるという話はどう思う?
>>869 専門書の翻訳本はほぼ100%誤訳だらけで日本語になってない。
C++バイブル本なんか有名な話で、翻訳してるほうが理解してないんだから。
だから日本では専門書は原著で読めと言われる。
chainer信者は最新アップデートに追従するのに必死でこんなスレくる暇ないよ
別に信者じゃないけど、 chainer2.0 に真面目に取り組んでたら 3.0 を出してきたので正直やる気がなくなったw というか 2.0 はどういう扱いなんだ、失敗作かよ?w
あんだけ互換性のないバージョンアップをされると、 落ち着くまで様子見ようって思っちゃうよね。
それな。いくら様子を見てても、全然落ち着かないという…
>>895 解けるかどうかではなく
解が一致するかどうかを聞いているんだが?
ちなみに解が一致しないとすると、 そもそものモデルが合ってたかどうかが疑わしいものになる
>>898 そうやって誤魔化すのではなくて、chainer2.0 の位置づけを教えてくれないか?
こんなに早く 3.0 出すならマジで時間を無駄にさせられたわ。
量子なんちゃらング は
現状、まだ眉唾物の立場。
トンネル効果とか横地場なんて言葉で誤魔化されてるけど、物理現象を正確に捉えられてない
サイズupしたときに正しい解を得られるかどうかの保証もない。
なにより、
>>883 の記事や、提唱者が出版してる本から感じるのは研究に対する態度が誠実でないように思います。
批判に対してそれを埋め合わせようなんて姿勢が伺えない。
個人的に彼らにはノーベル賞とか与えてはいけないと思います。
画像認識で一番使いやすいのはchainerCVだよね
以上、体調不良で 休暇中のサラリーマンより。 スレチ失礼しました。
信者というより業者の宣伝みたいな書き込みが目立つな
そりゃ・・・絶賛売出し中、カネになる、って分野だしなあ 宣伝業者はカネになりうるなら何でもするもんよ
初学者でよく分からないんだけど、よくデータセットを正規化しろって言うけど正規化するのって教師あり学習の場合は"学習用データのみ"を正規化するのか"学習用データとテスト用データ"のどっちですか?
どっちもに決まってんだろ、片方だけするならしない方がマシ
>>913 >>914 そうですよね…先に齧っていた知り合いがそこらへんあやふやにしか教えてくれなかったので助かりましたありがとうございます!
>>915 というか正規化の意味を調べた方がいい。
その質問が出てくる時点で正規化の概念を理解してない
CHAINERバカにして使ってないといってるくせに バージョンアップでブー垂れてるのは CHAINERに文句言いたいだけのアイツだろ 他の人は興味ないんだから
好きなの使えばいいよ。chainerが好きなら使えばいい。 まずそれぞれ流派が異なるからね。
本当にChainer v2を使ってるのか疑問 移行なんてほとんど変更なしでいけるんだがな
そういう問題じゃない v2 が広まってもいないのに、v3 を出してくるようじゃ、少なくとも仕事で使うのは無理
>>919 じゃあ何で長々とした upgrade guide があるのよw
chainer専スレ立ててそっちでやった方がいいかもな
グーグルの独走がヤバイと話題
682 名前:名無しさん@ピンキー (ワッチョイW 45ab-W9RG) [sage] :2017/08/02(水) 10:04:23.11 ID:kPrlWevN0
これ画像検索したら一番搾りって出て、文字認識するのもすごいと感心した次第
683 名前:名無しさん@ピンキー (ワッチョイ a18f-YNlP) [sage] :2017/08/02(水) 10:39:47.74 ID:O6j7FqJX0
>>682 Google凄え(怖え)よな
文字なくても食べ物か集合写真か認識するよな
PFNのプログラマーの実装力が高すぎて一般社会人プログラマーの感覚がわからない説
まともなソフトウェア・プロジェクトを管理した経験がないだけだろw
>>930 実装力が高過ぎて、pytorchにも抜かれちゃったな
とりあえず無難なのはkerasとtensorflowの使い方覚えておけばいいのかな chainerはtrainerとか便利だけど抽象化され過ぎててアレかもしれん でも日本人コミュニティでの使用は盛んだから悪くは無い気がする。ただdocが英語しか無いから本末転倒というか
ソフトバンクあたりに買収されてオワコンまでがデフォ
>>935 ガチでKerasとTFだけでいいと思う
モデルをコンパイルする TF系とボトムアップにモデルを定義する caffe系の両方使えればいいと。
先日正規化について質問したものです 現在正規化をする際に分類したいデータと学習用データを合わせて正規化しているのですが、何個も連続で予測したいときに一回ずつ正規化すると処理にかなり時間が掛かってしまうのですが、そこらへんを高速化する方法って何かありませんか?
>>940 調べていたらscikit-learnのfit(),transform()辺りでそこらへんのことが自己解決出来そうです
糞レスすみませんでした
>>940 ある程度のところで正規化を行う層より前の層をロックし、正規化後のデータを作成して後半のネットワークに流すしかなくね?
ディープラーニングの仕事してる人ってやっぱり大学で研究してきてる人ばかりなの?
自然科学と人文・社会科学の違いの議論と確定論・自由意志の議論は関係がなくもない。 人為の所産であるところをどのように記述でき得るのかという話。 あるいは統語を徹底させたところで、何かしら意味の一端を持たせた途端に矛盾が入り込むという話。 そこから意味論のど真ん中に話を持っていかざるを得ない思考なり意志なりの扱いについて、 こういったものはその体系そのものが不確定な相互解釈の循環に依存しており、 今のところそれは綺麗に紐解けないでいる。 だから強いAIの強いってどのように定義できるのかというような、そもそもの知性の定義にしたって 人間中心主義から逃れ得ないというような議論にもなるし、ひとまずはブラックボックス化した上で、 擬人的な振る舞いとして見ることで、本当に人のような擬人的振る舞いなのか、 擬似・擬人的なものにすぎないのかという範疇での判断に依存しているのが、 たとえば有名なチューリングテストもそう。 さりとて別に物理と精神をまったくの二元論として捉えるべきであるという話ではない。 それは究極的には一元論であるのだろうがしかし、やっかいなのは一元論をそのまま一元論として 我々はどのように記述できるのかという問題がある(おそらく何かしら二元論的表現をすることは避け得ないだろう)。
>>945 ということはやっぱりchainerが一番だな
>>943 敵に回すと面倒臭いだけだが味方にしても全く頼りにならない
立ち居振る舞いの美しさは人を感動させる。 笑顔は人を幸福にする。
もうchainerとか言ってるやつ煽りたいだけやんww
日本でしか使われてないのは前からわかってたけど、これだけバージョンアップされるとネタにしかならんわ
>>954-956 こいつらの意見を満たすならchainerが一番良くね?
まあchainerアンチも多いし日本の技術力なんて落ちる一方だな 結局海外のフォロワーがお似合いなんだよ日本人は
芸術とか言っちゃってるのどうにかならんの?頭の方だけど。
実際、数学ガーとか言ってるのと同レベルだから放置
chainer使ってるよ ただ参考になる情報がtensorflow実装だったりするから、他のライブラリ理解できないと詰む chainer指定じゃなければ使わなくなった
アインシュタインのこんな名言がある。 ”人の価値とは、その人が得たものではなく、その人が与えたものによって測られる” いくら肩書きが優秀であっても、社会に貢献出来なければ、残念ながらその人間には価値が無い。 だから、 ”成功者になろうとせず、むしろ価値のある人間になろうとしなさい” これも、アインシュタインの名言である。つまり、人の役に立つ人間になれということだ。
アインシュタインが人の役に立ったのか。特許庁の役人の勧めか。
>>962 本当にそれ
結局人は人の集まるところに集まる
アインシュタイン『すべての宗教、芸術、科学は、同じ一つの木の枝である。』 -考察- この言葉を説明するとしたら、その『木の根っこ』にあるのは、あれしかない。『真理』だ。そして、『愛』であり、『神』だ。 しかし私は、これらの言葉が全て同じものを指していると考えていて、そう仮定した場合でも、アインシュタインの言葉とつじつまは合うのである。 -アインシュタインの言葉を自分のものにする- 例えば、『四聖』に数えられる、 孔子、 ソクラテス、ブッダ、キリスト 彼らの言葉を一通り見たが、私が見出した彼らの教えの共通点は2つあって、まず一つ目は『自分の心に目を向けるべし』ということ。そしてもう一つは、『真理を説いたこと』なのである。 彼らの言葉は、確かにその教えや表現は微妙に違うのだが、真剣に向き合って内省してれば、(どれも同じものに目を向けている)という事実が、浮き彫りになってくる。それこそが、真理であり、愛であり、神なのだ。 ラ・フォンテーヌは言った。 『すべての道は、ローマに通ず。』 私は、この『結局、辿り着く場所が同じ』という現実を考えた時、 (もしかしたら、『神』という実体は、私が認識して理解できていて、この世に普遍的かつ絶対的に広がっていて、圧倒的な強い支持を得ている『愛』や、『真理』と、ほぼ同じものなのではないだろうか?) という強い意識が芽生えるようになった。そして、そんな私からすれば、このアインシュタインの言葉を理解するのは難しくはない。 『同じ一つの木の枝』も、『結局、辿り着く場所が同じ』も『この世には、圧倒的な根っこが存在している。』ことを示唆する言葉となっているのである。 『そこ』から離れれば離れるほど、人間の心は虚無に陥る。これは、非常に興味深い事実である。
大阪人の標準語の文章と その他の標準語の文章とを見分けて分類する器械
>>973 ぶっちゃけ可能だと思う
というか口癖ならぬ書き癖みたいなので個人を特定するのもすでにできてると思う
匿名だからって2chで適当なこと書きまくってるとgoogleのtensorflowにチクられるぜ
書き癖以外に書き込みの時間帯とか書き込み頻度とか長文が多いか、短文が多いか 改行を入れるか、続けてガーッと書くのか 英字は半角か全角か、数字は半角か、全角か 句点は入れるのか いろいろ観点はあるよね 人間に「察し」がつくものはAIでもわかる しかも疲れを知らないから侮れない 怖い世の中だねぇ
お前らは知的好奇心の赴くままに流行りに乗っかって猫も杓子も機械学習やってっけど監視社会を自ら作り出して息がつまるような世界にしないように注意して頑張ってな まあ手遅れだと思うけど
マジレスで返されるとは思っていなかった 問題は用途と実効性だよね 古い文献で著者不明なものの著者の推定、とかなら 使い物になるかもしれないけど、狭い分野なら習熟した人間のほうが良さそうだ
>>980 と思うでしょ
2chを解析するだけでも多分金になるぜ
これ以上言うのやめよ なんか自分の首を自分で締めてる気もするし
>>981 スレ違い気味で申し訳ないんだけど正直よくわからん
匿名発言の紐付けを試みても法的場面で使えるかどうか民事でも怪しいように思う
どんな用途が?
>>983 すまん、もうノーコメントにしとくわ
悪用されても困る
カーネル法+ディープラーニングはなかなかいい結果出た
Pythonではじめる機械学習を読んでいるんだけど、k-最近傍法というのが分かりません。 一番近い点が属すクラスに属すようにするアルゴリズムであるという説明がはじめにされています。 アルゴリズムは固定的なものなのかと思ったら、次の節では教師あり学習をさせています。 意味が分かりません。この本を読んだことがある人、説明をお願いします。第2章です。
学習はさせないということで正しいですか?fitという関数を呼び出して学習させている感じに見えるんです。 ターゲットのyをfitの引数にしています。でもyの情報は使っていないということですか?
最初にグループわけされたデータを与えて、それに基づいて新しいデータを既知のグループに振り分けるよね 最初のデータをグループわけしたのは誰?
最初のデータは既にグループ分けされています。yに正解となるグループが格納されています。
正しい結果を与えてそれを再現しようとしてるなら「教師あり」だよね また、結果のわかってるデータがちゃんと分類されるように調整されていくなら「学習」してるよね
因みにその本は読んでなくて表(電車の中)にいるので一般論ね
このスレッドは1000を超えました。 もう書けないので、新しいスレッドを立ててくださいです。。。 life time: 41日 12時間 13分 51秒
2ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 2ちゃんねる専用ブラウザからの広告除去
★ 2ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.2ch.net/ ▼ 浪人ログインはこちら ▼
https://login.2ch.net/login.php
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250618131803ncaこのスレへの固定リンク: http://5chb.net/r/tech/1498493352/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。 TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【統計分析】機械学習・データマイニング16 [無断転載禁止]©2ch.net YouTube動画>5本 ->画像>3枚 」 を見た人も見ています:・【統計分析】機械学習・データマイニング17 ・【統計分析】機械学習・データマイニング19 ・【統計分析】機械学習・データマイニング18 ・【統計分析】機械学習・データマイニング23 ・【統計分析】機械学習・データマイニング31 ・【統計分析】機械学習・データマイニング25 ・【統計分析】機械学習・データマイニング6 ・【統計分析】機械学習・データマイニング13 ・【統計分析】機械学習・データマイニング30 ・【統計分析】機械学習・データマイニング34 ・【統計分析】機械学習・データマイニング9 ・AI、ビッグデータ、機械学習のエンジニアは絶対増え続けてるはずなのに俺の仕事楽にならんのだが? ・人工知能ディープラーニング機械学習のための数学 ・人工知能ディープラーニング機械学習の数学 ★3 ・【AI】スタークラフトのAI対決、優勝は「機械学習不使用」のサムスン[11/19] ・【機械工学】〈動画あり〉驚異的、脳全体の3D画像化に成功、2100万回撮影 ニューロンのつながりをマッピング、ショウジョウバエ ・【Tesla】 機械学習用レンタルサーバスレ【Titan】 ・【IT】Google、プログラミング不要で“機械学習”試せるサイト公開 ・【IT】さくらインターネット、機械学習やPythonの講座を無償公開 [田杉山脈★] ・【物理】東大、ナノダイヤモンドと機械学習による高精度磁場イメージングを実現 [すらいむ★] ・【IT】グーグル、歌詞に合わせてメロディを自動作曲する機械学習システム--公開特許に ・【敵対的機械学習】カラープリントした紙で「AIの監視」から逃れる方法[04/29] ・【AI】FacebookがAIによる地図データ生成、機械学習で衛星画像から道路の形を抽出 ・【嫌儲プログラミング部】Kindleストアでプログラミング・IT技術書が半額セール、人気のPython機械学習の解説書も ・【IT】「Amazon CodeGuru」発表。機械学習したコンピュータが自動でコードレビュー ・【企業】アマゾン、英で2500人増員 10%拡大 機械学習や顧客サービス対応 ・【機械工学】マツダ、最新エンジン「スカイアクティブX」は「マツダ3」で初搭載[11/09] ・量子機械学習の一歩踏み出す、伊チームがパーセプトロン実装に成功[12/12] ・【IT】AWS、機械学習機能を活用したデータセキュリティサービス「Macie」発表 ・コロナ前のデータで訓練された機械学習モデル、現在完全に破綻 ・【機械工学】積水ハウスが開発した「会話する施工ロボット」と「アシストスーツ」の実機デモ (1/3)[06/19] ・【素材】機械学習とナノ3Dプリンターで「鋼の強度と発泡スチロールの軽さを兼ね備えた新素材」の開発に成功 [すらいむ★] ・【機械学習】ニューラルネットワークの内部動作を理解するための完全自動化システムをMITの研究所が開発 ・【Google】グーグルでは機械学習を用いることで、ネトウヨを排除するシステム作りに力を入れている ・ゲーム全くしないんだけどグラボ買う意味あるの? 機械学習とかしたい人向け? ・【学習】 ロシアの美少女ハッカーによるPython×AI機械学習入門を無料公開【CV:上坂すみれ】 ・【IT】MIT発のスタートアップFeature Labsは機械学習アルゴリズムの開発を加速する ・【機械工学】人類初となる「フルカラー3DのX線写真」がCERNの技術で実現 人間の体内をフルカラー3Dモデルで再現[07/13] ・【機械工学】ロールスロイスがエンジン整備の未来像として虫型ロボットを披露[07/19] ・Googleが機械学習用に作ったTPUマシン、うっかりスパコン「京」を超えてしまう ・【機械工学】釘打機で壁を作るヒューマノイドを産総研が開発(動画あり)[10/9] ・カオス理論で知られる複雑な状況を「機械学習」によって正確に予測する技術が開発されている ・【オンライン授業】「先生、うちにはWi-Fiがないんです...」…学習機会の差否めず 無料Wi-Fi求めコンビニに行く生徒も ★2 [ばーど★] ・【Kaggle】機械学習・AIのコンペ【SIGNATE】 ・機械学習で従来の3500倍以上高速かつコストが10万分の1に抑えられる気象予測モデルをGoogle Researchが公開 [すらいむ★] ・機械工学に詳しい人教えて!タイヤ自体にサスペンション機能持たせるメリット何かあるの? ・Windows 10 機械学習について語るスレ Pt.1 ・【機械工学】ボストン・ダイナミクスの“ロボット犬”、その動画の続編から見えてきた「新たな事実」 ・【機械工学】〈動画あり〉話題の高性能ロボット犬、量産間近 気になる就職先は?ボストン・ダイナミクス社 ・【ゲノム編集】遺伝子編集技術CRISPRのエラーが機械学習で予測できるように ・【韓国】斗山重工業「機械工学の花」ガスタービン技術独立 米独日伊に続き、5番目に発電用ガスタービンの国産化に近づいた[9/22] ・【IT】機械学習の波、メモリーへも ・Pythonで機械学習してるやつって"浅い"よな ライブラリ頼みで本質を理解してない ・XboxGameStudioの機械学習アプスケ技術の次世代感すごい。レイトレよりこれを推せば良いのに ・【AI】「AI多すぎ、何使えばいいか分からない……」を解決するAI「HuggingGPT」 文章入力だけで、適切な機械学習モデルを自動選択 [すらいむ★] ・【朗報】God of War Ragnarok CS初の機械学習アプコンによりとんでもない画質を達成する ・【PC】米AMDがGPUボード「Radeon Vega Frontier Edition」発表、機械学習でも性能発揮 ・【k平均法】NVIDIA、機械学習を利用してEM解析の運用を効率化 ・【IT】機械学習の天才技術者がNECを選んだワケ ・機械学習とかやってる大学生なんだけど ・人工知能・機械学習のスレッド@数学板 ・春から機械エンジニアになるんだが学生のうちにしとくべきこと教えてください ・文系底辺でも機械学習はできる...? ・女性に激震。機械学習使ってSNOWの加工を元に戻すアプリが公開されてしまう ・機械学習を活用して個人でできるビジネスなんかある? ・【AI】機械学習にノーベル物理学賞 「源流」に日本人研究者 AIの発展 大きな貢献 [すらいむ★]
00:18:03 up 62 days, 1:16, 0 users, load average: 9.92, 9.28, 9.49
in 0.91799402236938 sec
@0.11359000205994@0b7 on 061813