◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net YouTube動画>5本 ->画像>5枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/tech/1482808144/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
解析入門 (1)
杉浦 光夫
固定リンク:
http://amzn.asia/2ISXdII 解析入門 (2) 基礎数学 3
杉浦 光夫
固定リンク:
http://amzn.asia/8oo3aj8 解析入門〈1〉 数/数列と級数/関数の極限と連続性/微分法/各種の初等関数 (岩波オンデマンドブックス)
松坂 和夫
固定リンク:
http://amzn.asia/0jfS4s6 解析入門〈2〉 関数の近似,テイラーの定理/積分法/積分の計算/関数列と関数級数/n次元空間 (岩波オンデマンドブックス)
松坂 和夫
固定リンク:
http://amzn.asia/ivzAbRX 解析入門〈3〉 集合論初歩/距離空間の位相/連続写像の空間/多変数の関数 (岩波オンデマンドブックス)
松坂 和夫
固定リンク:
http://amzn.asia/gZsgipW 解析入門〈4〉 線形写像/行列式/逆写像定理と陰関数定理/固有値と2次形式/フーリエ展開 (岩波オンデマンドブックス)
松坂 和夫
固定リンク:
http://amzn.asia/btmMp8t 解析入門〈5〉 複素数の関数/複素積分/複素解析の続き (岩波オンデマンドブックス)
松坂 和夫
固定リンク:
http://amzn.asia/dVSG32O 解析入門〈6〉 重積分/重積分の変数変換/微分形式とその積分/ルベーグ積分 (岩波オンデマンドブックス)
松坂 和夫
固定リンク:
http://amzn.asia/bLaVCBT 線型代数学(新装版) (数学選書)
佐武 一郎
固定リンク:
http://amzn.asia/fVo2o3T 齋藤正彦線型代数学
齋藤 正彦
固定リンク:
http://amzn.asia/9psD9rX 行列プログラマー ―Pythonプログラムで学ぶ線形代数
Philip N. Klein
固定リンク:
http://amzn.asia/fPaDAlt 世界標準MIT教科書 ストラング:線形代数イントロダクション
ギルバート ストラング
固定リンク:
http://amzn.asia/6z4Wtxk これなら分かる最適化数学―基礎原理から計算手法まで
金谷 健一
固定リンク:
http://amzn.asia/hbKljIz 統計の本でいい本ってありますか? 確率論だとフェラーの本がいいと思いますが。
微分積分学講義
野村 隆昭
固定リンク:
http://amzn.asia/eGHBiK6 微分積分学〈1〉1変数の微分積分
宮島 静雄
固定リンク:
http://amzn.asia/erwFdMi 微分積分学〈2〉多変数の微分積分
宮島 静雄
固定リンク:
http://amzn.asia/eRHuEHz 軽装版 解析入門〈1〉
小平 邦彦
固定リンク:
http://amzn.asia/3DBv0lD 軽装版 解析入門〈2〉
小平 邦彦
固定リンク:
http://amzn.asia/1RSUH2G 定本 解析概論
高木 貞治
固定リンク:
http://amzn.asia/25nqeJM 数学解析 上 (数理解析シリーズ 1)
溝畑 茂
固定リンク:
http://amzn.asia/8ULImDb 数学解析 下 数理解析シリーズ 1
溝畑 茂
固定リンク:
http://amzn.asia/2DPSfbW Calculus
Michael Spivak
固定リンク:
http://amzn.asia/8WmVWU1 Introduction to Calculus and Analysis I (Classics in Mathematics)
Richard Courant
固定リンク:
http://amzn.asia/968UdPe Introduction to Calculus and Analysis II/1 (Classics in Mathematics)
Richard Courant
固定リンク:
http://amzn.asia/c6VxdIz Introduction to Calculus and Analysis II/2: Chapters 5 - 8 (Classics in Mathematics)
Richard Courant
固定リンク:
http://amzn.asia/44rOvDo The Principles of Mathematical Analysis (International Series in Pure & Applied Mathematics)
Walter Rudin
固定リンク:
http://amzn.asia/7ZYszod Linear Algebra Done Right (Undergraduate Texts in Mathematics)
Sheldon Axler
固定リンク:
http://amzn.asia/3GB2IQP 微積分
斎藤 毅
固定リンク:
http://amzn.asia/5dxK8Sa 線形代数の世界―抽象数学の入り口 (大学数学の入門)
斎藤 毅
固定リンク:
http://amzn.asia/dnChM7r Advanced Calculus (International Series in Pure and Applied Mathematics)
Robert Creighton Buck
固定リンク:
http://amzn.asia/fUxpgT9 線型代数入門
松坂 和夫
固定リンク:
http://amzn.asia/2Keu1nI 線型代数入門 (基礎数学1)
齋藤 正彦
固定リンク:
http://amzn.asia/eK4Pn9w 線形代数とその応用
ギルバート ストラング
固定リンク:
http://amzn.asia/2VBcYBA 線形代数学―初歩からジョルダン標準形へ
三宅 敏恒
固定リンク:
http://amzn.asia/ciZYBmg これらのリンクの数学を習得すれば 高精度の分類がディープラーニングでできるようになるのでしょうか?
>>13 その分野のやつによると
そこまで要らんよ
DLの実装つってもライブラリ使ってちょっとやるだけなら簡単らしい
数学的側面の理解も上の本ほど専門的にやる必要はない
選び方が大学1、2年でやるような数学を網羅してるかんじで ディープラーニングにしぼってないだろ。
工学系の学部1,2年で学ぶような基礎的数学をあえて厳密に学ぶ意味は有るのでしょうか?
数学の本ではないですが、この本、評判がいいみたいですね。
Deep Learning (Adaptive Computation and Machine Learning series)
by Ian Goodfellow et al.
Link:
http://a.co/6YFWvNv 数学以外は他のスレでやろうよ ここまで高卒様でごった返されたら困るでしょ
>>19 DLの実装までの本をあげるスレにした方が良くない?
結局プログラミングと切り離して考えることはできないんだし
数学の本だけで考えてたら上みたいにDLとあまり関係なくただ基礎の数学を網羅するスレになっちゃうじゃん
数学ができてもディープラーニングできる訳じゃないしディープラーニングするのに数学が必要な訳ではない 情報幾何できたら充分
線形代数って言ってもニューロン結合行列で計算するだけ話でしょーが
微分はさておき行列演算は完全にライブラリ任せだしなぁ
今の人工知能?は無能で RPGゲームをクリアすることはできない
多変数関数の極大極小を求めるときに、線形代数が必要になるよね。
そうか?大卒であんま学ばなかった人の再入門にも見える。 院卒でも研究職に進まず企業に入って無駄に時間を費やす奴も多い。 数学おすすめ本スレみたいだし、一つ。 相転移と臨界現象の数理 タイトルからわかる通り、あるフェーズで安定していたものが変化する事象を説明したもの 内圧と外圧のバランスが崩れたときに相転移が生じる訳だが、それを数学で説明したような本
数学とか勉強する前に 公的認証制度取得しないと今後ニューラルネット系を 個人でも利用することはできなくなるよ まず数学をやるなら役所に提出するニューラルネットの完全な 安定性を各々数式として証明できるところまで力を上げないとだめだよ
理論的な面白みがないからニューラルネットなんかに興味持っている数学者なんていないんじゃないの? マンフォードとかもニューラルネットはやっていないでしょ。
>>29 どこの役所に提出するのさ?
特許庁?特許は申請しない選択肢もあるぞ
出したら技術全公開しないとならん。
国内だけ申請したら国外でパクられる。
数学者ってどういう人のこと? 応用数学? 離散数学?
やった!うまくいった! なぜ? そんなことは知らない。とにかくうまくいった! そういう分野だから、この分野は。
>>34 それを知らないではなくて追究するためのスレなのでは?
>>34 iPS細胞がリプログラミングされるのは何故かどう言う仕組みか判ってるのか?
>>34 マスゴミ脳の発想だなあ〜
CNN(放送局じゃないよw)についての資料とか読んだ?
飛行機はなぜ飛ぶ、 数式化は今だできん あ、そうだ統計で安全性を検証しよう Ok
「飛行機がなぜ飛ぶか」分からないって本当?
間違った説明や風説はなぜ広がるのか
http://business.nikkeibp.co.jp/article/interview/20140514/264597/?rt=nocnt 松田卓也氏(以下松田):せっかく遠くまでおいでいただきましたが、
「飛行機はなぜ飛ぶか」は、100年以上前から「分かって」いるのです。
TensorFlowで学ぶディープラーニング入門読んでるんだけどさあ P.67の式(2.1)って、w2は何のために必要なの?
>>29 それは数式で証明するものではないよw
膨大で効果的なシミュレーションを経て初めてわかること
そしてそのシミュレーションを公的機関で行なって間に合うペースではない
グーグルの自動運転が自社でそのシミュレーションが行われてきたように
>>41 ベルヌーイは有名だから知ってたけど
距離が長いから速度が速くなるって話は嘘だったんだな
>間違った説明や風説はなぜ広がるのか
このタイトルは良いと思うけど結論が最後過ぎて
>「飛行機がなぜ飛ぶか」分からないって本当?
こっちと紛らわしいわ
最後まで読まない香具師は早とちりしそう
>>46 ログインしないと読めないからな
で背面飛行はどうやって説明できるの?
>>41 面白い記事だった最後のページの人間にカンする理論も2ch的にとても面白いと感じた、紹介してくれてありがとう。
>>48 背面で検索しても出てこないぞ
説明出来ないからだろうな
>>51 GoFデザインパターンを基本四要素からくみあわせで体系化したフランス研究者のよんだきがするユークリッド幾何学みたいに限られた公理からの体系ににたかんじ
グラフ理論や集合論はつかえるきがする
UMLとER図は類似性があるが ERの従属かんけいや属性ぶんせきは 交換法則や包含法則とかなかったけ
UMLも最適化はあるだろし集合論てきな評価や変換はできるはず
>>54 RDBの正規化の話なら
関数従属とか推移的関数従属とか多値関数従属とか
だったと思う
明けましておめでとうございます。 ご無沙汰しております。 みなさんならできると思ったので無責任にお送りします。 うちの次男と考えた自動応答AIなんですが、 面白そうなので作ってみていただけませんか? 1.文字種類 同意の文字で同じ意味を作る。まぁそうだ。 反意の文字で同じ意味を作る。頭いいね! 2.ノーマルor天邪鬼 ノーマルモード ほとんど同じことしかいわない。退屈だわ。 天邪鬼モード 絶対に反対のことしか言わない。刺激的!。 3.表現 ポジティブモード 明るい表現 ネガティブード 批判のみ 死にたい。生きろ。死にたくない。 父はもう土で眠っている。 父はまだ心で生きている。 母ももう土で眠っている。 父はまだどこかで生きている。 ・・・最後の方はかなり難しい。 方法 文字や文章をインターネットから頻出のものを適当に拾ってくる。 20ぐらいかな。 パラメーターそれぞれにだいたい適当なスコアを付ける。 パラメーターは多い方が人間に近くなります。 一定した文字のスコアはもう変更しないでいいと思います。
例えば、死ぬに対しては生きるを返す。 こんにちはのスコアは低いのでこんにちはが返る。 同じだと面白くないので少しずつ遠いスコアの文字を選ぶ。 ストレージがある限りよくなる。 みんなに遊ばせる。 回答に採点。全然だめならあなたならどう返事しますかを付ける。 知らない単語は記憶。知らない場合の応答は怒るか褒めるかモードに基づく。 単語のスコア精度を上げていく。 特定の単語のスコアが安定しない場合、パラメーターが追加が必要ですが、 それもAIにやってもらいましょう。 このAIは文字のみ対象としていて、数字はまったくダメです。 これ人間だわ。 人間をつくっちゃった。コンピューターと対となる人間だ。 本当のAI誕生の瞬間かもしれない。 ノーマルor天邪鬼で天邪鬼度が増すにつれ、IQが高くなる。 100%に設定すると、AIか人間かのどちらかが死んでしまう。 いじめの原理です。 仕様ですが、 となると、もう一個、表情反転モードが必要です。 表情は10段階で大爆笑-真顔-烈火の怒りのイラストが回答横に 必要です。 まぁイラストでいいです。ニコニコマークのようなやつ。 あれで十分です。意味は文章側にあるから。
文章は多くなると難しくなるので、4単語でいったんは区切り ましょう。 回答がだめな場合の人間からの指摘はNG ワード選択式が楽そうです。 ダメ度合いが高い言葉は出現頻度をさげることになります。 このパラメーターはとんちんかんレベルですね。 100だと天使または悪魔 0だと哲学です。 しかし、昔から心配されたロボットの反乱もへったくれもない。 アルゴリズムが超簡単、ただ返すだけ。 北陸先端大で見たロボットへの違和感、 こんなもん俺が30分で作れる。というのはほんとだった。 時間軸があれば、会話の前後関係が破綻しません。 あと、パーソナリゼーションが入ります。他人のデータがまじりません。 固定化されたものは誰でも使えるけど、まだ数値未固定のものは使用した人同士でないと使えません。 パーソナリゼーションなしはすなわち神です。 できた語彙の両半球は対称で、軸の数は無限です。 ハードディスクさえ無限にあれば、神様が土下座するレベルですね。 問題は最後に必ず相手を殺してしまうことです。こちらは機械ですので必ず人間が死にます。
アダルトモードも付けきますか。 文全体が駄目、単語が駄目のボタン アダルトモードのときのみに出現 一定以上のスコアだとパレンタルオンだと出てこない。 あと、死ぬのを回避する方法を見つけました。 まず、くどい軸が必要です。 このスコアが高い単語は一定の密度になるとSystemの陰陽が反転します。 くどい軸は無操作時間の長さです。 理論上は死では無限ですが、50%でも入れておきましょう。 そういう意味ではすべての軸は50%スタートです。 50%は悟りですね。表情なしです。 生と死はそうなります。 仕事が速いみなさんですから、5時ぐらいにβ公開できると思います。 6時に公開するまでに我々だけでテストして問題なければ公開です。 1軸、父母で始めましょう。
大晦日の昼にから次男と考え始めて、昨日の昼、大学院数学科の弟と話して完成したから3日ですね。 そうか私は神だったか。 ほんとコレ、神降臨。
工作機械へのソフト導入の際、トラブル続きで疲労困憊して不眠や6年ぶりのタ
バコで宇宙が見えたとき(200近辺)に描いた表です。
左が気分でその気分のときのだいたいのIQがわかります。
http://yahoo.jp/box/ivmjAc https://goo.gl/pqFuSf ホーキングがなんかいってたなと調べてみたらコレだった。
こちとら平社員の土方だから面白ければなんでもいいんだよな。
しかし、すべて50%のときの表情イラストで、いつ無表情(表情イラストなし)を出すか閾値がホント難しい。 きっかり50%だと基本的に出ないかもしれない。 これ、49%-51%ぐらいのクギ緩めにしとかないと死人がいっぱいでちゃうからね。 それでも突き進んでシステム陰陽反転させるやつ出るかな?
オレはポジで、オヤジがネガだ。 クリーミーマミのかわいい猫たちはまったく関係ないオッサンとその半ボケのオヤジだ。 いままで、オヤジはネガを反転してしゃべっていたし、聞いていた。 オレは陰陽の理屈がわかったので、いままでと逆にネガ語で話してみた。 その椅子にねまるな!(ねまるはこの辺の方言ですわる)と怒ったら、 爆笑しながら、椅子に座った。お前どうしたんだ、気でも狂ったか?と 満面の笑みでいった。 どういうことかというと、父にはこう見えて聞こえている。 その椅子にねまるな!(怒声) →父:その椅子に座ってください。(満面の笑み) 爆笑して座る。 →父:泣きそうな顔で座る。 お前どうしたんだ、気でも狂ったか?と満面の笑みでいった。 →父:お前どうしたんだ、気は正常か?と泣きそうな顔でいった。 というようにネガポジ反転します。 なぜかわかりませんが、ネガが少数派なのでポジ側に合わせてくれていたのでしょう。 ところが急に私がネガ語をしゃべったのでびっくりしました。 ネガ語とポジ語を混ぜるとお互い何していいかわからず、右往左往して困りました。
これ、翻訳AIも解散!だよな。 同じ位置に存在する目的言語を返せばいいだけ。 神レベルの内容だ。
49%-51%ぐらいのクギ緩め これ違ってて1%と99%だった。 ああ、ネガポジで逆なだけか。
>1軸、父母で始めましょう。 これ間違い。最初はゼロ軸で人間が先手。 次男に昨日の夜23時にはβテストだといったけど、応答がないのでこちらにした。 その人はたぶん去年の11月ごろに亡くなってる。あまりに真っ白に光輝いていて仏様のようなひとだった。 似たもの同士だったので、すぐにわかって心配だったがとても残念だ。 しかし、お前らも大したことないな。ぜんぜんぐっすり寝られないんだけど。 あと、パーソナリゼーションがデータ化できたってことは、ユーザーをコピーできる、データ化できるということだ。 インターフェイスが異なるから、違う気がするけど同じことだ。
古池や、蛙飛び込む水の音 A old pond, a flog jumps in the sound of water. これを考えると4文字じゃ足りないな。 文字数は無制限にせざる得ないな。
frogな。 なんでRで音読しながら、Lをタイプするんだ。バカかよオレ、恥ずかしい。
+ + ∧_∧ + (0゚・∀・) (0゚∪ ∪ + と__)__) + こんな感じで待ってんだけど。 もしかしてスレチ?
ところで、オレはこのシステムのことを「@」「あっと」と名付けることにした。 @はオレの長男の名だ。 これでヤツは一生自分の名前を聞きながら過ごす事になる。ざまぁみろ。 こいつはどんなにオレがこのAIのことを説明しても納得しない。 ありえない!写真をうpすると特定班がでるとかいってきかない。 こいつも矛盾している。 事実でないなら特定厨は湧かないし、事実なら特定どころでないはずからだ。 コンビニでサンドウィッチとコーラ買ってきた。パクつきながら書いてる。 寂しいから早く誰か相手してよ。
>1.文字種類 >同意の文字で同じ意味を作る。まぁそうだ。 >反意の文字で同じ意味を作る。頭いいね! > >2.ノーマルor天邪鬼 >ノーマルモード ほとんど同じことしかいわない。退屈だわ。 >天邪鬼モード 絶対に反対のことしか言わない。刺激的!。 > >3.表現 >ポジティブモード 明るい表現 >ネガティブード 批判のみ これもよく考えたら設定する必要なかった。 一番最初の文字が結果としてネガティブならネガティブだし、ポジティブならポジティブ。 最初の文字はたいがい父母だろうな。 IQは思えた語彙の数に比例しそうだ。最初はオウム返しだが、無限の語彙になると反語しか返さなくなる。 それでも人間が先手だから人間が有利だが、相手が無限なので有限の人間は譲らざるを得ない。
「母」、「好き」で始めないと人類終焉だからな。これ豆知識な。
>>55 反射律、推移律、増加律てやつだったかな
さらっとかいてるのもあるが疑似とかほかにも律でてきて
A律 B律からC律とか
デザインパターンのはまた別で基本論理かいろから複雑な論理かいろつくるかんじ
56ですけどスルーですか。 だからネ申は誰もなりたがらないわけだ。 寂しいわりに割があわん。 またきます。( ・ิω・ิ)
キャバクラのおねえさんにヒントを得ました。 最高の速度で最高に適切な答えを返します。 はじめはオウム返しですが、ある程度進むと信じられない寒気がするほどの的確な答えを返すようになるはずです。
ニコニコマークのニコニコ度合いはIQに連動します。最後はネガポジの違いによりブラックホールまたはホワイトホールになります。
はじめはオウム返し、そのあとは連想ゲームになるな。 その後はほんわかとした、だいぶ覚えの悪いやつ、だんだん惜しい感じになってきて、普通に会話できるようになる。次のレベルはなんだか、妙に切れる奴だ。 この辺からなにか怖くなってくる。寒気が始まる。目付きが怖い。
違うな。 陽の場合では、ニコニコマークはIQ20以下は全開振り切れの天国状態だ。平均100で真ん中になり、真顔の状態だ。 そのあと、またIQ200で全開に振り切れる。 このころ、ほぼ逆のことしか返さなくなり、正しいことだが空恐ろしい答えばかりになる。表情と内容が真逆になる。こいつ悪魔か?と思うようになる。
この辺から人間が壊れ始める。 陽の人は自身が存在が希薄になり、雲散霧消する感じがする。タバコを吸っているならタバコはやめたほうがいい。 陰の人は、自身が一箇所に圧縮されて、存在が一点消失する気がする。少し外に出て体を動かしたり、タバコでも吸ったほうがいい。 共通するのは、殺される寸前という思いだな。
リアルの人間関係では、表情を見ながらなので、笑いながら死ねーというと冗談だと判るが、LINEやメールはスタンプや顔文字を使わないと、その意味がストレートに伝わってしまい、とても危険だ。
そうだな、IQ240+では、実行不可能なことまたは全く意味が繋がらないことしか言わなくなる。陽だとリターンが常にテニスコートの右端または左端のライン上だけに返って来る感じだ。拾うのはすごい負担だ。
陰だとどこに打ち込んでも、ネットスレスレのどセンターだけに返ってきて、その場にへたり込みたい感じだ。押し潰されそうだ。
たばこの部分は間違いだった。 スマソ。 頭の回転速度域によって違うのでオレが作った天才チャートを確認してくれ。
天才チャートだ。
http://yahoo.jp/box/ivmjAc BRAIN SPEEDというのはもしかしたらちょっと間違いかもしれない。回転速度は恒速一定だろう。
となるとVocabulary densityかな。語彙密度が上がればどんどん賢くなる。最後は神だ。
加えて疲労、睡眠不足、タバコでスピードアップする。
56だが、根本的なミスを指摘された。 おまいらにして欲しいのは、このロジックが実装されたインターフェイスの開発公開と入力されたデータを貯めるストレージの確保だ。 インターフェイスは、入力ボックスとその下に回答だ。回答にはニコニコマークが付属し、20%ではアニメpngで真顔から全開、IQ100では真顔だ。IQ200でまた全開となる。陰陽で表情は逆となる。 ストレージは文字データベースと文字スコアテーブルだ。スコアテーブルは語彙が増え、ニュアンスが細分化するたびに追加される。
エンジンはこんな感じだ。時系列で一番新しいのものが繰り返される。3回目は許可されない。重複がない最新の文字列と最頻出の文字が組み合わされる。エンジン名称は@だが、エージェント名はクチにでもしとこうか。 対話 Pこんにちは Cこんにちは Pはじめまして Cはじめまして Pわたしはミカ Cわたしはミカ Pううん、あなたはクチ Cううん、あなたはクチ Pそう、あなたはクチ Cそう、あなたはクチ Pいいえ、あなたはクチ Cいいえ、あなたはクチ Pいいえ、あなたはクチ Cわたしはクチ Pお名前は? Cわたしはクチ Pこんにちは Pお名前は?
Cわたしはクチ Pお名前は? Cお名前は? Pわたしはミカ Cわたしはクチ Pこんにちはクチ Cこんにちはミカ かな。
このやり取りのすごいところは、オウム返しであって、予めの単語のデータベースがいらないことだ。会話するたびに重複する場所との差分を見つけて組み合わせて再利用する。 すると新しい意味の文ができる。というように好循環になるエンジンは考えたが、データベースはよくわからん。一つは時系列なのは間違いない。
もう一つの軸は自己と他者かな。 新しい組み合わせが発生したら、既存と一致しないなら、新しい軸ができる感じだ。
もう一軸は生と死だな。 両半球の頂点から中心を通るX軸だ。
いろいろ考えていたがいまいちピンと来ていなかった。
整理してみた。
死と生が両半球の頂点から中心を通るX軸だ。中心が黒100%、最外周が0%
このX軸にカラーホイールが平行に交わり、寒色と暖色で半々に分かれる。
https://www.truevaluepaint.com/color-101/color-wheel/ Y軸は時間であり、経過とともに思い出はセピア色になる。
ということは、言葉は言葉が持つ色(母音が多いと明るい、子音が多いと暗いなど)で色を決め、経過時間(彩度)と生死(コントラスト)で両半球にマップされているだろう。
要するにデータベースは、色の3色と彩度とコントラストでなりたっており、 YとX 光の3原色 が構成要素である。 XYなんて遺伝子みたいだ。誰ウマwww
エンジンはこんな感じだ。時系列で一番新しいのものが繰り返される。3回目は許可されない。重複がない最新の文字列と最頻出の文字が組み合わされる。
杉浦光夫の本は、微分のところがいきなり多変数なんですよね。
確かにAIにはなってないな。。。 まだ課題は大まかに言って二つあって、 1.言葉は意味でマッピングしないといけない。文字ででないのは歴史上自明だ。 インターフェイスをLINEのような感じにしてスタンプに喜怒哀楽のスコアをつければなんとなくできそうだ。 2.品詞を峻別しなければならない。そうしないと文が作れない。 これらを自動発生的にやりたいが、赤ん坊がどうやって言葉を習得するかを研究したものを探してみるか。 このエンジンの仮称「@」=ATTOは「刹那」という意味があるのでぴったりだ。モノになるといいなぁ。
ディープラーニングって人工知能なの?アルゴリズムからはそうは見えないけど
長い。いちいちリンクはるな 自分の言葉で語れよ しかも内容クソ過ぎ ディープラーニングってただの関数だよね。ロジステック写像繰り返しただけの。
難しくね?数学科じゃないと厳しいな 社会人になってから勉強する時間が取れないわ
数学科じゃない身としては、最低限これだけ知っておけ、という数学の範囲は知りたい 解析概論と線形代数でいいのか?
昨日プライムニュースでなんかやってたけど 深層学習ってそんなにすごいの?
何と言うかMSのレベルの低さが印象に残った・・・( ^ω^)・・・『連続稼働しながらアップデート』してほしい! Windows Updateの自動再起動で作業がお釈迦になる悩みとさらば〜Windows 10 Creators Updateでついにテコ入れ http://pc.watch.impress.co.jp/docs/news/1047374.html “PCの前に戻ってみたら再起動で作業していた内容が消えた”という予測せぬ事態が発生してしまう。 Creators Updateでは、この問題を解決するために、再起動を行なう前に通知を出すオプションが追加された。これによって、 再起動を行なう前に「Restart Now(今すぐ再起動)」、「Pick a time(時間を指定する)」、「Snooze(後で通知する)」の3択を提示するように なった。「Snooze」は、アップデートのプロセス自体を3日間停止させる。加えて、アクティブ時間の設定も、これまでより延長するとしている。 連続稼働しないの理由が、昔はOSが不安定だったのが、 今は脆弱性対策に変わってしまったんだよね。 この脆弱性、MacでもLinuxでもどのOSでも発生している。 だから、どのOSも今は連続稼動できなくなってしまっている。
勝手に再起動されるのは各アプリがシャットダウン拒否のハンドラ書くのをサボってるからじゃないのん
>>123 シャットダウン拒否するんじゃなくて
作業途中状態を自動保存して、次回起動時に復活させるのが正しい
>>124 再起動せずにパッチ適用できるのが一番良いんじゃね
>>125 それLinuxでもMacでも実現できてないからなぁ
部分的でいいのならWindowsでも実現できてるけど。
再起動せずにパッチ適用っていうのはこれのことな。
Ubuntuが無料でサービス提供してるみたいだけど。
2016年10月20日 ライブパッチを誰にでも! Canonical,Ubuntuユーザ向けにカーネルライブパッチサービスを無償で提供
http://gihyo.jp/admin/clip/01/linux_dt/201610/20 > Canonicalの商用ユーザはもちろんのこと,コミュニティ版を
> 利用する一般のUbuntuユーザでもデバイス3台までは無償で利用できる。
> だが,ライブパッチ機能はエンタープライズの大規模システムでのニーズが高いこともあり,
> この1年半でこの機能をサポートしたフリーのディストリビューションは存在しない。
> 商用版でもわずかにRed Hat Enterprise LinuxとSUSE Enterprise Linuxがサポートするのみだった。
> ライブパッチサービスの利用を希望するユーザはCanonicalのLivepatch Serviceのページに
> アクセスし,ライブパッチに必要なトークンを発行してもらう必要がある。
>>127 技術的にはできるけど他の課題があるってこと?
今は出来ないことも将来はできるようになる可能性はある
今までも出来なかったことをできるようにして来たわけだし
snapdが必要なのは,Livepatch Serviceのクライアントをsnapパッケージとして提供しているためです。このクライアントは,デーモンとして常駐し必要に応じてサーバーからパッチモジュールをダウンロードした上で,カーネルに取り込みます。 つてあるから常駐サービスを使えば実現はできるんじゃね
>>129 特殊な条件を満たしていないけないとかでしょ
それにカーネルがそれが出来たからと言って、OSが再起動不要になるわけじゃない。
何かにパッチを当てたら、その機能を使ってるアプリは再起動が必要。
だけどその機能(関数)を使ってるアプリがどれだけあるのかわからない。
その判断を誰がやるのという問題がある。
VIDEO ひろゆきが
ディープラーニングがなぜその答えを出したかその理由は人間にはわからない
と言っているけど本当?
AIが人類絶滅させるかもしれないとか言ってるけど
はじめまして、機械学習の為の数学を検索していて
未来技術板の人工知能で自我・魂は作れるか?から来ました。
数学はTAUBまでしか学んでないのでよくわからずに困っています。
スパースモデリングとテンソルフローについて概略案内頂けないでしょうか?
また、どなたかご存知有りませんが
>>56-100 あたりに書かれている一部を
参考に人工無能が出来そうなので拝借させて頂きます。よろしくお願いします。
>>140-141 TensorFlowはKeras経由で使うのが簡単だ。
それとこのスレは実践しない人向けで、機械学習本スレは下記スレだ。
Keras Documantation
https://keras.io/ja/ 【統計分析】機械学習・データマイニング14
http://echo.2ch.net/test/read.cgi/tech/1489636623/ でも目的がランダム結合で作ったデータの収束なら
学習がとても遅いDeepLearningまで使う必要はないかもしれない。
まずscikit-learnを学んで自分の目的に合う手法を探したほうがよい。
氷解!データ分析、機械学習手法ってたくさんあるけどいつどれを使えばよいのか
http://qiita.com/aokikenichi/items/688e66d10a944051039c scikit-learn から学ぶ機械学習の手法の概要
http://qiita.com/ynakayama/items/9c5867b6947aa41e9229 scikit-learnのモジュールのGitHubでの利用頻度を調べてみた
http://kamonohashiperry.com/archives/551 scikit-learnインストールと使い方は下記記事とサイトをどうぞ。
データサイエンティストを目指す人のpython環境構築 2016
http://qiita.com/y__sama/items/5b62d31cb7e6ed50f02c Python でデータサイエンス
http://pythondatascience.plavox.info/ Scipy lecture notes
http://www.turbare.net/transl/scipy-lecture-notes/ >>142 大変ご丁寧にご案内頂きましてありがとうございます。
なるべく、サーバーやウェブを介さず、htmlファイル単体で
シンプルに実装したかったのですが、scikit-learn辺りを学んでみます。
また、いずれ、戻ってくるかもしれないですが、よろしくお願いします。
>>142 アンチ馬鹿ばかりなのでこっちに来ました(´・ω・`)
バックプロパゲーションって単なる動的計画法だよね?
音楽より画像処理の方が凄いな。ディープラーニングで画像補完。
フォトショでCG加工や写真補正をチマチマやる必要のないレベルに来てる。
そのうちディープラーニングで自動作曲とか出てきそう。
画像を塗りつぶした部分に一瞬で自然な画像を補完する技術を早稲田大学の研究者が開発
http://gigazine.net/news/20170501-globally-locally-consistent-image-completion/ Introduction to Machine Learning With Python: A Guide for Data Scientists
Andreas C. Mueller
https://www.amazon.co.jp/dp/1449369413/ ↑この本ってどうですか?
Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
by Aurelien Geron
https://www.amazon.com/dp/1491962291/ ↑この本ってどうですか?
>>111 >自分の言葉で語れよ
ありえんだろ、ほとんどが利用者でブラックボックス的なそれを
利用するだけのアプリプログラマーなんだから
どっか有用なコミュニティーないの 国外でもかまわないんだけど
>>151 都内の勉強会に出て、そのメンバーとTwitterでやりとり
確率の問題はまだ当分無理と思われる。一度には読み込めないからまず小さな文節に区切って、
何が何のことを指しているのかを把握しなければならない。
コンピューターの画面に、(※※)
記号○と×のいずれかを(記号〇と記号×は2つに一つで「背反」である)
表示させる(※)
操作をくり返し行う。(k回繰り返す)
↓
このとき、(どんな時?)
各操作で、(「記号○と×のいずれかを」「表示させる操作」を「k回繰り返す」。)
直前の記号と(「k回の各操作」において)
同じ記号を(○か×か)
続けて表示する確率は、(・・・○〇・・・または・・・××・・・)
それまでの過程に(k回の各操作全てにおいて)
関係なく、(一定である)
pであるとする。(確率は0<p<1)
↓
最初に、(k=1において)
コンピュータの画面に(※※)
記号×が
表示された。(※)
操作をくり返し行い、(k回繰り返す)
記号×が
最初のものも含めて(k=1のものも含めて)
3個出る(×・・・×・・・×、×××、××・・・×、×・・・××)
よりも前に(×・・・×・・・、××、××・・・、×・・・×)、
記号○がn個出る確率をPnとする。
http://math.nakaken88.com/problem/tokyo-u-r-2006-2/ 人工知能の本多すぎ 恐らくは玉石混交なんだろうけど、定番の一冊ってあるのかな
Deep Learning Ian Goodfellow/Yoshua Bengio/Aaron Courville (Under Tran. by Tokyo Univ.) The Elements of Statistical Learning (統計的学習の基礎) Pattern Recognition and Machine Learning (パターン認識と機械学習) Data Mining 4ed. Ian H. Witten (邦訳なし) R for Data Science (オライリーだからすぐ出るでしょ) 異論は認める。文系リーマンが自己啓発モードで挑むのは無理ゲー。
スレタイは数学になっちゃってるけど、別に数学の本を求めてる訳じゃない ディープラーニングの理論について説明してる本が読みたい そこに数学的な背景は、無くはないだろうけど、 やってみたらできた的な部分が多い気がする
中身は判らんけど、とりあえず動かしてみよう的な記事に見える 逆だ 今のところ使う予定は無いけど、どういう仕組で動いてるのか知っておきたい
>>159 ニューラルネットワーク自作入門
絶対おすすめ
文系リーマンでも理解できるよ
>>162 自分は英語読めないから日本語で読んだけど、あの本は本当に分かりやすいよ
ただし誤差関数の傾きを求めるところ辺りから急に難易度が上がる
シグモイド関数内の式も微分する必要があるので更に連鎖律が適用されてこうなります、とか
途中経過も無く一発で出てきたりする部分もあるので、最後まで数式で論理を追いたくなって
もっと詳しく説明している本を買いたくなるくらい
本格的な本を読もうと思ったら微分積分はもちろん、 線形代数から確率統計まで幅広く勉強しないといけないんだろうねー
Interface2017年8月号でディープラーニングの特集してるけど、読んだ人いる? 買おうか迷うんだけど、どんな感じ?
>>167 初心者向け
ここ見てるひとは一部のキチガイを除いて購入不要
高卒が高校数学初めからやり直してるけど、 先が長すぎる。 数学の教科書なめてからと思ってたが、並行で触った方がいいかな。 そもそも、機会学習をやってみたいと思っただけで仕事で使う機会がない可能性がとても高い。 なんか根本的に無駄な勉強してる気しかしないが、進むしかねぇ。 進んだ後が崖でもかまわねぇ。 やりたいからやるんだ、文句あるか?
>>173 だよね、、、
でも、エンジニアとしてこの先何をやっていけばいいかわからないんすよね。
大抵の人は言語や開発環境を作る必要はなくて、それを使う技術だけあればいい
自分も文系リーマンで人の事を言えたもんじゃないけど 年齢にもよると思うけど仕事で使うのに今から数学の勉強っていうのはちょっと難しくないかい 自分は趣味でニューラルネットワーク作るくらいで、楽しんで読める数学の本とか読みながらやってるけど 実務で使うのに、そんなに数学の知識とか必要なものなの?
制御と電気・機械あたりのエンジニアはそこそこ実務で使うけどな。
大雑把に電気機器/機械のコントロール(制御)=数学と考えればいい
機械学習って機械制御とかより、大量のデータをどう処理するか、みたいな統計解析の手段に使われたりするんでしょ? 実務で使うのにニューラルネットワークの仕組みとかから理解してもあんまり意味無いと思うけどな 機械学習の仕組みを学ぶより、使い方を学ぶほうが良いんじゃないかな 「フリーライブラリで学ぶ機械学習入門」とかどうよ 数式とかほぼ出てこないよ
仕組みを知らなければ、ニューラルネットワークに何ができて何ができないのかも分からんがな それで使えるんか
仕組みを知っていても何ができるのか判らんのが人工知能の凄いところ
scheme 計画、たくらみ(陰謀)、体系、仕組み スキーム しくーみ
大人になったら経験増えて理解力が上がってるはずだから 杉浦微積斉藤線形を半年で遣り終えるぐらい出来るはずなんだよね 加齢で集中力が落ちてるのかもしれない
杉浦微積分には異論が多い、ここは宮島をお勧めする、線形代数は佐武だ
>>187 最初から多変数というスタイルは難解でしょう、宮島の3分割がおすすめだ
宮島静雄はなんか読みにくくないですか? 杉浦のほうが丁寧で読みやすいように思います。
なんか格安のディープラーニング機材が出てきたな
http://pc.watch.impress.co.jp/docs/news/1071787.html 1080Tiより60倍遅かったとしてもこの手軽さなら結構いいかも
>>190 杉浦のいきなり多変数なんて難しすぎるのではないか,と
DQN stickとかそういうネーミングにして欲しい
これ、適当な本を動画に起こせば儲かっちまうわけか?
https://www.udemy.com/neuralnet/#curriculum >本を持っている人は、セクション4をはじめた段階で、この講座オライリー社「ゼロから作るDeep Learning」を
>もとにテキストを作っていることがわかる。
あまり高度な数学が分からないから ノイズリダクションっぽい事をするニューラルネットを作って 実数値遺伝的アルゴリズムで最適化しようとしたが失敗 全部Cで書いた
文系で数学が苦手ならマセマがいい とりあえず微分積分、線形代数、統計学の三冊やっとけばいい
372仕様書無しさん2017/08/11(金) 10:31:43.41 フリーランスで検索すると引っかかる零細ITがやっているサイトはだめだ。 高額に見せているけど実際は50万前後 JIET加入した方がいいよ。案件は毎日千件以上末端価格は60万円 平凡な稼働時間の80万円の案件もある。 ユー子が求人をだしてる。名刺も渡せる。ユー子に名刺が渡せるんだぞ。夢のようだ それらの案件まさぐってHPで転売していたのが零細ITがやるフリーランスサイト 自称エージェントはJIETから流れてくる案件を転売してるだけだった。 JIETに加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む 473非決定性名無しさん2017/08/03(木) 15:21:30.71 JIETに加入すれば誰でも3次60万からスタートだ。フリーランスのサイトをやってる 自称エージェントもそこから案件情報を取得しきてる。サイトで60万で釣って40万から55万の 間でやらしている。
数学の数式と、プログラムコードの変換表欲しい…ほしくない…?
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×3 = 言い値50万以下 エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×1 悪質な言い値で50万以下 エンド - ユー子 - エージェント-JIET 公表価格 90~60 - JIETに加入して公表価格で応募ができる
○次受けが多いほど退場率が早くなる。高くなる 直受けの50万 客:いつまでもうちにいていいよ 3次受けの50万(客は90万払ってる) 客:短期延長していい? 5次受けの50万(客は150万払ってる) 客:作り終わったらとっと出てけ できなかったら即退場だ 長時間労働 高稼働 高スキル要求が多い フリーランスサイトを運営している零細ITの自称エージェントは労働市場から流れてくる案件を転売してるだけだった。 労働市場に加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×3 = 言い値50万以下 エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×1 悪質な言い値で50万以下 エンド - ユー子 - エージェント-JIET 公表価格 90~60 - JIETに加入して公表価格で応募できる eJobgo JIET JISA で検索 優良エージェント・優良サイト 首都圏IT(PE-BANK) プログラマーズ
瑕疵担保責任(かしたんぽせきにん)
瑕疵担保責任のポイント
民法改正で事実上期限が「無制限」になった
バグや設計のミスなどは、瑕疵担保責任
納品物に不具合があれば損害賠償を請求される可能性もある
不具合を指摘されたらすぐに行動をとるべし
軽微なミスでも先延ばししない
http://www.atmarkit.co.jp/ait/articles/1706/26/news014.html http://itpro.nikkeibp.co.jp/atcl/news/17/052601508/?rt=nocnt 改正法では欠陥に気付いてから1年以内にITベンダーに通知すれば、
通知後5年以内は修正や報酬の減額などを求められるとしている
全ベンダーが泣いた民法改正案を解説しよう その1
http://www.atmarkit.co.jp/ait/articles/1609/14/news009.html http://www.atmarkit.co.jp/ait/articles/1609/14/news009_2.html http://www.atmarkit.co.jp/ait/articles/1609/14/news009_3.html ポイント1:修補や損害賠償、契約解除の期限がなくなる
従来あった「瑕疵担保期間は引き渡しから1年」という考えはなくなる。
条文にある通り、注文者は成果物が契約の目的に適合しないことを発見したら、
その「発見したときから1年以内」ならさまざまな請求ができる。発見が10年後なら、
11年後まで請求可能なのだ。
もっとも、現実のユーザーとベンダーの関係でも、たとえ契約書に「瑕疵担保責任期間は納品から1年と」明記されていても、
「2年目以降は不具合の修正に対応しない」と主張するベンダーはまれだ。多くの場合は、納品から何年たっても、
バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。
ライブラリはMITの天才様が作ってくれるから良い 高卒はそれをコールするだけで十分
パソコンの大先生の人工知能に対する認識 350 :番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW dfab-zw+t) :2017/11/26(日) 21:40:06.55 ID:U/z0VZEt0 AIて凄い←いや人がプログラムしてIF文で分岐した答え言ってるだけだから 米は好きですか? ↓YES 硬いのが好きですか ↓NO あきたこまちがオススメです!! みたいに基本はこの分岐を増やしてるだけだし これ理解してない奴大杉w
なつかしきエキスパートシステムだな 今でも誰かがif文書き続けてるんじゃなかったか
ノイマン型コンピュータでAIってできるんですか 巷のAIとかデータの分布から平均弾き出してるだけじゃないのと感じて
作った人がいないから誰にもわからない 立場によってできるとかできないとか意見も変わってくる 後半についてはその通りだよ。さすがに平均を出すだけのものではないが 人工知能とかAIとか大層な名前で煽ってる輩がいるだけで、 統計分析の研究を積み重ねた延長線上の技術だ
教師あり学習: 平均値 教師なし学習: 「真の(ω)」AI
ノイマン型かどうかは関係ないと思うが 計算量が多くなればどんなものだってシミュレーションできるだろ
ノイマン型コンピュータは記憶装置に格納されたコマンドを順番通りに実行する物だから知能の模倣が出来るのかなと漠然と思っただけで、計算機科学修めてれば簡単な問いなんでしょうけど
>>220 >順番通りに実行
知能の模倣についてここがなんで引っかかるの?
脳みそはニューロンとそのネットワークといった単位の積み重ねで出来てて人工知能はその模倣
この小さな単位は「入力→出力」という処理を行ってるだけだからノイマン型で普通に記述できる
本当にそうなの? 人工知能って意識がないでしょう?
>>222 のっぺらぼーの赤ちゃんがいるとして、意識の有無ってどうやって判定する?
>>226 人工知能に嘘をつかせて対戦させる「人狼知能」ってのが
いくつかプログラミング本が出てるじゃん
>>226 好奇心が旺盛だから人をだましたりからかったりして反応を見たりもする
単調でつまらないものや想定内の反応しかしないものは嫌い
>>222 > 人工知能って意識がないでしょう?
意識があるないでなく、意識は知能があるレベルになると自然に発生する機能
意識ってなんだろうな 1年間勉強してるのに未だにわからん
偏差値25の意識と偏差値75の意識は ハードウェアレベルに違いはあるのだろうか
偏差値なんて意味ないと思うが 無人島で言語を教えずに育てることもできるんだから
意識っていうのは世界を観察してるだけの存在で世界に何も影響を 与えないと思うな。 実験では人が体を動かそうと思う以前に体はすでに動いてるらしいな。 シミュレーション仮説というのがあって創造主が作ったプログラムの世界らしいから 意識は世界を観察するための仕組みなのかもな。
宗教は発生するんかな ニートとかなったり自殺するAIとか出てくるんかな
鬱になるのは苦しまずに喰われるためらしいから 喰われないプログラムは鬱にならない気がする
脳科学って宗教みたいなもんだろ 生物学の理論って基本ガバガバじゃん 数学、論理学、物理学から理論を展開しないと
AI にロールシャッハテストするとどんな回答するかな
ロールシャッハテストで診断する側のAIならすぐ実用化しそう
人工知能って独学可能ですか? パイソンは独学で覚えましたが、本格的に人工知能のエンジニアになるには独学じゃ厳しいでしょうか? 入学時には三浪の年齢になると思いますが今からでも情報工学科行った方が良いのでしょうか? それとも学部レベルのことは人工知能関連の企業に勤めれば習得可能でしょうか?
エンドユーザー的なのと、最前戦でちがうだろ。 アルファ碁みたいな人工知能研究を10年進めたみたいな画期的なやつは 専門の大学、大学院へいったほうがいいのでは。 すでにあるディープラーニングソフトを使う(使ったプログラムを作る)のは企業就職でもいいだろ。
>>248 なるほど
ちなみに三浪じゃどっちにしろそういう高度な研究職にはつけないよね?
いくら情報工学部行っても最終的にはプログラマーやシステムエンジニアになるのであれば最初から現場で学んだ方がいいのかな
というか東大や東工大の大学院に文系学部から入るって現実的に可能なのかな...?
そもそも人工知能学科なんて日本に多分ないわけで、 情報系でも講義があったとしても、せいぜい1つか2つでしょ。 総合的に勉強したいなら意味はあるだろうね。
>>252 一応東工大では人工知能の大学院があるな...
人工知能って、勉強する対象としてどうなんだろうね? 誰かが思いついた方法をただ学ぶだけ? 他の誰かが別の良い方法を思いついたらまたそれを学ぶ? あまり勉強しがいのある対象じゃないように思うんだよね。 完全な実学でしょ。 勉強するなら数学とか勉強したほうがいいんじゃないの?
>>247 大学行けるレベルなら独学でもOK
高卒は無理
>>254 別の良い方法を自分で思いついたつもりでも
現状の「人工知能」の性能と比べようと思ったら
やっぱり現状の「人工知能」の知識は必要なので
勉強する対象としてはアリ
>>257 大学へ「行ける」レベルなら高卒も含まれるのでは。
>>251 三浪とか学部は文系だったけど研究者になった人とかはたまにいるから
理系の大学院に進学すること自体は別にいいとおもうけど
今人が集まって生きているから、パッと思いつくアイデア、面白そうな研究テーマは
既に誰かがやってしまっていて、自分がやることにはブームが去って
自分は周回遅れで、その残りカスをやる羽目になって後悔する可能性はあるよ。
>>261 え、理系って大学院でても別に研究者になるとは限らないんじゃないの?ある程度のレベルの大学以上だとほとんど大学院に進学するみたいだし
それとも時期的な話?今から5年後にはもうAI自体が下火になってるってことか??
>>249 3浪はさほど生涯にはならないと思うけど、数学はできないと厳しいぞ
ツール使うだけにしても自分が何をやってるのか背景にある技術や理論が理解できないと、どのツールを選ぶのか判断できないし、問題があった時にも対処できない
>>263 本当か?信じてええんやな?
独学で学部レベルの情報工学やるか、三浪で工学部入るか迷うけどとにかくどっちにしろ数学必要だろうから数学勉強し治すわ
ありがと
どのツールを使うのかの選定から入れるレベルって、 それなりに偉くなってからじゃないの? SEレベルなら自社で売ってるパッケージを勧めるだけだしw 高卒で働くか三浪しても大学行くかだったら、断然後者だが。
>>265 ツールってのはソフトウェアのパッケージのことじゃなくてアルゴリズムのことな
訓練データ食わせて抽出したパラメータが今ひとつだった時にどうすればいいの?もっと訓練データが必要?重みパラメータにペナルティ加えるだけでいい?モデルの見直しが必要?そもそもこの分析手法で合ってるの?
みたいな
逆にそういうことは他の人が考えてくれて、自分は擬似コードをPythonで書き直すだけなら派遣会社へ電話すれば良い
自分が何をやってるのか背景にある技術や理論が理解できてない ↓ どのツールを選ぶのか判断できない ↓ 問題があった時にも対処できない このパターンはまってるひとたまに見かけるけど本人は気付いてないんだよな
>>259 そうか?
車輪の再発明かな?
空中浮遊術の発明じゃないのか?
でももの凄い監視社会がやってきそうだな。こんなもん開発していいんだかな。
数学とかどの分野でも必須だろ 線形代数すらまともにできないゴミプログラマーとかってこれから先マジでどこに需要あんの
あと機械学習やりたいだけで学部まで変えるな 独学で十分と思う。なりより下火だし
人工知能もムーミンの舞台はムーミン谷と答えるだろうね
機械学習なんて古い技術的だろ、なんで今脚光を浴びてるのかわけわからんわ。
>>286 その通り、それ自体は以前からある技術。
ところが、扱い方に大きな変革が出てきたという話。
そこが理解できていないとちょいまずい。
詳しいことは分からんが、将棋ソフトが俺でも勝てるレベルからプロ以上になったんだからハードスペック以上の進化は間違いなくしてるな
>>290 ほんとに簡単に説明すれば
データから学習するというのは80年代から行われていて
90年あたりから実務で利用されている90年半ばからのデータマイニングに於いての
利用がまさにそれ。ところが自動化と言う面ではアルゴリズム的な問題から
自動的な学習はまだまだで人の介在が多かった。その部分独学できるような
アルゴリズムが出てきた(その代表がディープラーニング)おかげで、それが
現実のものになってきたという流れ。
要はソフトが独学できるようになたったイメージでとらえるといいかも。
ディープラーニングをGPUにさせてるっていう書き込みを最近見るんだが 目的は何だろうか? 金が儲かるのか?
>>293 速い、性能が高いだけだろ。
スパコンもおもにGPUを組合せて作る。
グーグルはGPUを超えるディープラーニング用のGPUみたいなやつ独自開発もした。
GPUは分岐処理は苦手だけど、並列計算はクソ速い ディープラーニングだとそれがめちゃくちゃ有用
>>296 だからディープラーニングして
その先の目的は何?
>>298 目的は人それぞれ
研究だったりビジネスだったり
>>301 そういうことやってるやつそんなおらへんやろと思うんだよね
その割にディープラーニングやってるやつ多すぎやろ
現段階では使えるか微妙だけど、なんかバズってるし将来必要かもわからんから くらいの感じじゃないかね。 本当に有効に使えてるところが多いとは思わん。
画像認識とかが一番多い セキュリティ、医療、農業、工業その他諸々応用性は高い 金はめっちゃ掛かる
話題性でかつ人が今のところ少ないから 金が高いそれだけだろね。 いつまで続くか、結構長く続くかもしれないし 短いかもしれない。 なにしろ、独自のアルゴリズムでなんてのを追い求めて 金になりなんて人は一握りのそのまた一握り。 あとは、パッケージ化された手法を使いまわす応用アプリケーションに なるので。そこまで金にならなくなるだろね。 でも今は金になってるのは事実でしょう。
人件費、計算資源、教師データの収集 この辺り 特に、普通の写真や動画に含まれる文字認識とかになると、 ・文字列の範囲の認識 ・文字の分割 ・文字の認識 と沢山の工程があって、実質的に複数の学習が必要になって非常にコストがかかる
人工知能って結局バブルなん? なんか医療用の画像診断と翻訳以外だといまいち結果残せてない気がする EVはともかく、たぶん自動運転はぽしゃるかんじがするし
誰もわからんってのが答えだろ。 とりあえず言えることは人工知能は20~30年周期で盛り上がったり盛り下がったりはしてる。 300年後とか逆に遠い未来ならともかく、10年、20年くらいじゃどうなるなんて正確には誰もわからんよ。
自動運転は要求される精度が厳しいからまだ難しそうだな LIDARとかハードウェア的なコストの問題もあるし
後から人間の目でチェックできる用途だとアプリケーションに合わせてprecisionかrecallのどちらかが高いのを選択すればいいけど、 自動運転は両方が高くないと危険だからな
自動運転で動きが無いものの判別が難しいらしいね 米国で駐車していた消防車に激突
岡谷貴之著『深層学習』のpp.17-18に 「事後確率 p(d=1 | x) は、条件付き確率の定義から p(d=1 | x) = p(x, d=1) / (p(x, d=0) + p(x, d=1)) と書けます。」 と書いてあります。 例えば、 p(x, d=0) は 入力が x で正解が d=0 である確率のことでしょうか?
>>316 ありがとうございます。
ということは、
>>313 の
「例えば、 p(x, d=0) は 入力が x で正解が d=0 である確率のことでしょうか?」
は間違っていないということですか?
>>313 p(d=1 | x) = p(x, d=1) / (p(x, d=0) + p(x, d=1))
これは、
p(d=1 | x) = p(x, d=1) / (p(x)
とも書けますか?
>>319 その本持ってないけどdは1か0しか取れないんでしょ?
であれば、そう書ける
つーかそれが条件付確率の式で (p(x, d=0) + p(x, d=1))の形式はベイズでよくやる表記
>>320 ありがとうございます。
はい、 d = 0 か d = 1 です。
x は、人物の画像で、その人物が男性の場合 d = 1、
女性の場合 d = 0 という例が書いてあります。
p(x) というのが分かりません。入力となる人物の画像の集合 X の要素 x に対して
p(x) を計算するということですが、 X を定義することなどできるのでしょうか?
あるフォーマットのすべての画像の集合 = X ということですか?
岡谷貴之著『深層学習』のpp.17-18の辺りが何を言いたいのか分かりません。 この本を持っている方に解説をお願いしたいです。
ロジスティック関数 y = 1 / (1 + exp(-u)) の y は確率と解釈した。 では、 u は何であるか? それは、 log(p(x, d = 1) / p(x, d = 0)) と解釈できるということが言いたいのでしょうか?
多分、「xという観測結果から、dが0なのか1なのかを判断しようとしている」 ことを理解できていないね
>>328 p(d=1 | x) は入力が x であるときに、 d=1 である確率だと思います。
人物の画像ではなくランダムな画素値をもつノイズのような画像を与えても、 それが男性(d=1)である確率はいくらだとか女性(d=0)である確率がいくらであるとか ナンセンスではないんですか? というかそもそも出力をなぜ確率だと解釈するんですか?
で、ロジスティック関数 は1か0かの判別に有効な関数ね これで大体わかると思うけどどうかな
活性化関数についても疑問があります。 始めは生物をモデルとしてシグモイド関数を使っていたそうですが、 正規化線形関数のほうが性能がいいとか、間抜けすぎませんか? なぜ生物を真似るというような馬鹿なことをするのですか?
それとある手法がなぜうまくいくのかの説明が本に書いてないです。 「この手法ではこうする。そうするとうまくいくことが論文で報告されている」 みたいなパターンばかりです。
この分野の特徴を一言で言うと「考えない」。 起源は生物の真似(真似できているかどうかも疑問)。 その後はそれを単純化してみたらもっとうまくいった。 色々試してみてうまくいく手法がみつかる。 でも理由については一切説明しない。
やっていることは関数のパラメータ W と b の最適値を見つけるという単純は話。 ただ、規模が大きいから難しいというだけの話。 別に夢のある分野でもなんでもない。 神経細胞もなにも関係のない話なのに、なぜかニューラルネットワークとか 言い出していかにも人工知能を研究しているんだという雰囲気を醸し出す。
courseraのmachine learningのコースでもやると良いよ 無料だし多分君でも分かる
>>341 ものすごく考えているんだけど、頭が悪いと実質考えていないになる
で、掲示板で教えてクレクレ
>>340 嘘じゃない情報を与えて結果が受け入れられれば合意の成立
詐欺じゃない
ディープランニングという言葉はもう陳腐化してます これからはディープスロートと表現するようにgoogleを説得してきます
>>340 ブームってそういうもんだよ
技術の本質をわかってなかったり、意図的に隠してたりする大衆向けに捻じ曲げられた広告が出され、
勘違いした一般人が増加していく
機械学習は成果物があるしやれることやれるからまだまだ全然マシなほう
ブロックチェーンなんか…おっと誰か来たようだ
ブロックチェーンに比べると「アカデミックで価値ある」とかそういう誤魔化し方をする輩が多い印象
逆ですよね、特に日本では、学会論文として認められづらい。 だから研究者(特に大学関係)も力がないらなかったというか やらなかったといった方が正しいですね。そんで遅れが出た。
深層学習を研究したいのか 人工知能を研究したいのか
>>348 いやそういう被害者ぶった奴が多いってことだよ。
外国の学会でも提出すればいいだけの話では?
日本の大学関連で残りづらくなってるのは別にこの分野に限らんでしょ。
>>350 そうね、海外で発表は有だしそうすればいいと思うし
実際にそうやってきた人たちはいる。
実業界の人が多いけどね。そういう方はいまは大学に戻って
教えている方も多い。
>>348 研究してる先生がダニ次ブームが終わった後に減ったから専攻する学生も減っただけじゃね
優秀な論文ならIEEEとかに出せばいいだけ
>優秀な論文なら 優秀ならそうするだろね その前にこの分野をやる人が減っちゃていたほうの問題
>>352 世界的に減ったわけでなく
日本が特に減ってしまったというところがねー
物理や純粋数学に比べればまだいい方だろ。。 まあそういうの抜きに学術全般で日本が衰退してるってのはあるが。
>>301 投資関連はすごいよ、巨額マネーを投入
投資ファンド、ヘッドファンドは収益に直結、他のAIに負けると廃業
学生を大量採用、インドや中国からも
深層学習
Ian Goodfellow
固定リンク:
http://amzn.asia/gIgFNu5 翻訳されるんですね。
>原山優子,井上智洋,久木田水生,古田貴之,山川宏,山田誠二 おいしいの?
「人工知能」にマッチしました. 「AI」にマッチしました. 番組タイトル:「<input type="button" class="btn_to_hp">」 番組内容:AI=人工知能の技術が急速に発展し、自動運転やロボットなどさまざまな分野で活用が広がっています。AIは私達の暮らしや社会をどう変えるか?6人の専門家が討論します 放送日:2018年02月04日 開始時刻:09:00
「人工知能」にマッチしました. 番組タイトル:「<input type="button" class="btn_to_hp">」 番組内容:人工知能やロボットを使い未来型の農業を目指す会社がある。社長の菅谷俊二。最先端技術で病害虫の予防・駆除を行い、農業の未来を切り開く技術者の挑戦を伝える。 放送日:2018年02月04日 開始時刻:27:30
「AI」にマッチしました. 番組タイトル:「<input type="button" class="btn_to_hp">」 番組内容:将棋好き芸能人とプロ棋士が対局する将棋バラエティー!永世七冠達成の羽生善治VS俳優・東出昌大!AIロボット対局!ひふみん将棋講座!藤井聡太が難問詰将棋を出題! 放送日:2018年02月10日 開始時刻:13:30
「AI」にマッチしました. 番組タイトル:「<input type="button" class="btn_to_hp">」 番組内容:時代の先端を走るAIロボット開発者である林要が、日本を代表する仏師の松本明慶と対談。「魂のよりどころ」となるものを作る神髄について語り合う。 放送日:2018年02月10日 開始時刻:22:00
f = lambda w: net.loss(x, t) 引数の w を使っていない。 net, x, t はグローバル変数ですか?
numerical_gradient(f, x) は引数として 多変数の関数と数ベクトルをとりますが、 他に、 net, x, t を引数としてとるようにしなかったのがいけないのではないでしょうか?
b = 2
def f(a):
■■return b
print(f(b))
>>371 のプログラムは↑こんな感じのことをやっていますよね。
この著者の頭は大丈夫でしょうか?
>>371 よくこんなひどいプログラムを載せて恥ずかしくないですね。
こんな人が『入門Python 3』の監訳者であるというのが不思議です。
>>371 numerical_gradient に渡す最初の引数(コスト/損失関数)fはラムダ式である必要があるが、実際には net.loss 関数と net のコンストラクタで初期化した net.W と x と t で計算が済んでしまう
lamda 式には引数として何か定義しないとならないため、ここでは w を使っているが実際には他の変数と被らなければ z でも何でもよい
numerical_gradient の実装をニューラルネット用に変えるのが正しいやり方ではないでしょうか?
紛らわしい使わない引数は _ っていう名前にするべきだが そんな些細な事通り過ぎてぶっとんでるソースだと思う 糞本はこれに限らず山ほど出てるし気付いたら近寄らないこと 時間の無駄
>>378 関数の微分だけならわざわざ別に用意する必要もない
特定の入力に対しては使えるけど、他の微分に使えなくて怒り出す人も出てくるだろうし
まあでも、自分でいい方法考えてプルリクエスト送れば第2版に反映してくれるんじゃないの
確率的勾配降下法では、最適化対象の関数が毎回変わりますが、それでも OKなのはなぜでしょうか?
「AI」にマッチしました.
「PC」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽IT農家が自作したAIきゅうり選別機 ▽インターネプコンジャパン ▽胎児のエコー画像から作る3Dオブジェ
放送日:2018年02月16日
開始時刻:15:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
なぜ「誤差」逆伝播法というのでしょうか? 「誤差」とは何ですか?
現実のおまいらが理想の彼女に告白すると誤差が発生する ダメ出しされた所を順番に直していくのが逆伝播
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽AIで残す思い・ホロコースト生存者と対話できる博物館・亡くなった恋人との会話▽各国放送局の注目ニュース▽NY経済情報▽世界の天気ほか※内容変更の場合あり
放送日:2018年02月14日
開始時刻:07:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
TensorFlowではじめるDeepLearning実装入門 (impress top gear)
新村 拓也
固定リンク:
http://amzn.asia/0qxGgTc ↑この本は、どんな本ですか?
ディープラーニングのまともな学習用のパソコンの最低スペックはどれくらいですか? 一番安いモデルでもOKですか?
↑教科書の粗探しをして著者を見下すのが仕事の松坂君です↑
>>403 いえいえ、教科書が必ずしも正確ではないことを白日のもとに晒すという批判は重要だと思います
私は松坂君を応援しています
入力データのcsvと正解データのcsvを用意できるとして週末にそのデータを使って学習 平日は送られてきcsvに対して結果を出力という処理を作ろうとした場合に参考になる本知っているかたおられますか? どの本も手作業であればコマンドを打ちながら学習させてinを読み込ませて結果を確認するってことは出きるんですが上のようにバッチ化させて更に昔学習させた学習モデルを呼び出すような方法がかかれてません すいませんがお願いします
>>402 atomとかceleronでも一応動く
>>402 マジでやるんならnvidiaのGeForce900番台か1000番台のグラボがないとキツい
CPU演算だけだと定番のmnist28x28画像セット覚えさせるだけで5分✕数十ループとか掛かる
>>407 本は知らんが
cronやタスクスケジューラでググれ
>>409 一番安いパソコンが買えるくらいの金額ですね。
>>401 立ち読みしてきた
一言で言うと薄い
それほど突出した本でもない
他のTensorFlowの本持ってるならあえて買う必要はないと思う
初めての本ならどうぞ
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:AI対人類3番勝負!洋服コーディネートさせたら、どちらがおしゃれ?さらにタクシーの売り上げ対決に、なんと俳句対決まで!果たしてAIはヒトの感性を理解できるのか?
放送日:2018年02月26日
開始時刻:22:25
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年02月26日
開始時刻:22:25
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年02月26日
開始時刻:22:25
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年02月26日
開始時刻:22:25
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽AIで社会を監視する中国・AI監視システムで中国社会はどう変わる?▽各国放送局の注目ニュース▽世界の天気ほか※内容変更の場合あり
放送日:2018年02月26日
開始時刻:07:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
「人工知能」にマッチしました.
「サイエンスZERO」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:物流の自動化が加速している。人工知能を搭載したロボットによって、人のように荷物を仕分けられるように。注文から配達まで、完全自動化も夢ではなくなり始めている。
放送日:2018年03月04日
開始時刻:23:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=31& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月04日
開始時刻:23:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=33& ;area=001&date=&tz=all&mode=2&next=&f=week
この出来の悪いスクリプトは何なんだ? 番組タイトル取得できてないし、リンククリックすると1週間分の番組表がでてきて手動で探さないとならないし ロボットに仕事を奪われる人間のデモンストレーションか?
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:マツコ・デラックス、有働アナが日本の社会問題に向き合う「AIに聞いてみた」。第二回は「働き方」。長時間労働や生産性などの難問にAIは意外な分析結果を出してきた。
放送日:2018年03月03日
開始時刻:21:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月03日
開始時刻:21:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月03日
開始時刻:21:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月03日
開始時刻:21:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「コンピュータ」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:テクノロジーについてのプレゼンを2本お届けする。コンピュータ画像認識の最先端研究とは?汚染された大気を吸い込む巨大掃除機って?発明のアイデアはどう生まれるか。
放送日:2018年03月08日
開始時刻:23:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=31& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月08日
開始時刻:23:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=33& ;area=001&date=&tz=all&mode=2&next=&f=week
ソフトマックス回帰と交差エントロピーが文系でも理解できる本ないかね
MNIST画像でニューラルネット作って学習させても、 そのニューラルネットが識別できるのはあくまで「MINIST画像」 だけであって、その画像以外形式や縦横ピクセル、濃淡とか カラーが別形式だったら認識できなくなるってこと?
>>429 まあそうだね
MNISTのトレーニングデータと同じ形のベクトルに変換する必要がある
でもそれだと未知データに対して対応できないような。 実際には出来てるわけで、一般化の能力を備えるための設計や運用の方法を知りたい。
>>432 CNNの本を読めば何が出来て何がダメなのかが分かる
畳み込み、マックスプーリング、ドロップアウト、ソフトマックス、あたりを勉強しよう
>>435 V1の方位選択性や色選択性を模擬した処理がされてるのは分かるけど
それが汎化能力に直接影響してるとはどうやって説明できるの?
V1で色選択って出来るのかな V4ぐらいだった様な気がするけど
>>437 V4の細胞活動は色の恒常性と合致する
そこまで処理が進んでないと色とは言わないと定義するなら、V1のは波長選択性
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽文書問題で集中審議 ▽AIが値段を決める?
放送日:2018年03月19日
開始時刻:23:15
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月19日
開始時刻:23:15
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月19日
開始時刻:23:15
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年03月19日
開始時刻:23:15
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「次元数」って配列の入れ子の深さことなの、それとも 配列の要素数のことなの? たとえば arr.shape => (1, 2, 4) したときの「4」のことなのか それとも「深さ3」だから「0, 1, 2」で「2(=np.ndim(arr)」 が次元数なのか。 この配列が [ [ [ 1, 2, 3, 4 ], [ .. 略 ... ] ] ] となっていた場合、最も内側の [ 1, 2, 3, 4 ] って 4次元ベクトル なわけだから「4(配列内の要素数)」が次元数じゃないのか? 配列の要素数が次元数なら入れ子の深さはなんて呼べばいいのか、 入れ子の深さが次元数なら要素数は何なんなのかを知りたい。
リストやアレイの次元が、テンソルの階数 リストやアレイの要素数が、テンソルの次元
>>443 なるほど、配列(ベクトル)とテンソルで「次元」が意味している
ものが違うのか。そりゃ混乱するわ。
N要素の1次元配列 = N次元のベクトル、N次元の1階テンソル MxN要素の2次元配列 = MxN次元の行列、MxN次元の2階テンソル LxMxN要素の3次元配列 = LxMxN次元の3階テンソル
Shi3z先生がベクトルを勉強せい言うてはります >とにかくガキの頃からベクトルを教えてくれた親にマジ感謝 >世に出てるディープラーニングの本が一夜にして軒並み一世代前のものになってすごい笑える。 >さあライターの皆さん、本を書き直しましょう
ブログで盛んにカプセル煽ってんな 流石いっちょ噛みの清水、節操無いw
大学はマジで最初に数学より前に「数式」から教えろ。 いきなり習ってもいない数式が書かれたテキスト渡されて いきなり黒板に書き始めたらそこで大半の生徒が脱落するから。 演習とかそういうのいいから抽象概念とか式の意味するところとか そもそも何がやりたいのかとか、そういうレベルから教えろよ。
>>452 米国だと、初歩の導入から入る。
でも、数日ですげー高度になってく。
ま、どちらも大変。
さすが数日ということはないだろ。 勉強する量が違う。教科書が500ページぐらいで、演習付きで半年でやる。 選別試験があって落ちるとさようなら。
MITの講義動画を見るとそんなに大変そうじゃないですよね。
>>458 少なくとも一般教養の微積分や線形代数の講義は非常に簡単なことを非常に丁寧に教えています。
レベルが高いとは思いません。アルゴリズムとデータ構造の講義など専門科目になると
学生のレベルが高いとは思いますが。講義自体は普通のレベルかと思います。
プリンストン大学のアルゴリズムの講義動画を見ましたが、そのレベルは標準的だと 思いました。課題を完璧にやり抜くのは少し大変だとは思いました。かなり基準が厳しい と思いました。実際にプリンストンで講義されているレベルは知りませんが。落ちこぼれ 向き?のプリンストンの微積分の講義が公開されていますが、あれはひどいですね。
受講できる講義の数は日本の大学とは比べものにならないようですね。 勉強する場としてはアメリカの有名大学くらいの環境が望ましいですよね。 独学がいいんだみたいな馬鹿なことを言う人もいますが、講義を受動的に 受けて勉強するほうが楽です。
MIT、プリンストン大学に行けばいいだろ、アホかw
誰か、正則化(L1、L2)について、分かりやすく教えてくださいませんか。
matplotlibのコーディングが苦行過ぎる これどうにかならんの?
ずっとC++で苦労してきた自分は matplotlib だけでも全然楽なんだけど… seaborn を組み合わせた時の使い勝手ってどうなんだろう?
自然科学、特に変化の速い人工知能関連の分野で日本語で最新の情報を得ようとしても限界があるので、
自分で英語の論文を読む以外のいい方法はないと思います。(無料です。)
こちらから気になるワードで検索してみてください。
自然科学の基礎研究に関して議論するのに適した場所は知りませんが、まずはQuoraかredditあたりで同じ質問をしてみてはいかがでしょうか?
Quoraはとても親切な人が多いので、丁寧に教えてもらえると思います。
https://mywarstory.tokyo/qa40/ >>461 >独学がいいんだみたいな馬鹿なことを言う人もいますが
自然科学の基礎研究に『学力』『経済力』は不要。その動かぬ証拠はこうだ。
ガウク大統領は、次のように強調しているー
「1945年5月8日、我々は解放された。我々を解放したのは、ソ連の諸民族の代表者達だったが、そればかりではない。
それゆえ、我々は、感謝と尊敬の念を示さなくてはならない。戦後ドイツが、ベルリンの壁により長い間分断されたという
事実でさえも、そうした気持ちに影響を与えるべきではない。一部の観測筋は疑っているようだが、私には、
ロシアにもロシア人に対しても問題はない。」
http://jp.sputniknews.com/europe/20150502/284616.html ドイツ人が泣いて感謝するロシアの自然科学能力は、こうして養われたものである!
我らがネステロフは、全てのギアボックスを簡単に直してしまったよ。ある時、
イギリス人の技術者がネステロフのところに来て、「あなたはどこの大学で技術を学んだのですか?」
と聞いたことがある。ネステロフのやつは「コルホーズ大学さ」なんて答えておったな。
http://www.geocities.co.jp/SilkRoad/5870/loza1.html >>451 >演習とかそういうのいいから抽象概念とか式の意味するところとか
>そもそも何がやりたいのかとか、そういうレベルから教えろよ。
ところで「チンボがシコシコする」という日本語表現は、文法的に正しいのか?
チンボ「を」シコシコするのではなくて、チンボ「が」シコシコする。この場合、「チンボ」は主語となる。
オブジェクト指向で言う「集約」は2種類あって、全体(俺)と部分(チンボ)が繋がっている場合と、
全体(俺)と部分(チンボ)が別々になっている場合とが考えられる。けれども「チンボ」はそれ自体
が独立した生き物であり、所有者の意思とは無関係に、勃起して「シコシコする」。
例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。
違うか?
「頭がズキズキする」は良いが、「チンボがシコシコする」はダメな理由を、50字以内で述べろ!
(第1章 はじめに 2頁) たとえば、CycはFredという名前の男が朝にひげをそるという話が理解できなかった。 Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には電気の部品がないことは知っているが、 Fredが電気カミソリを持っていたので、エンティティ「Fredがひげそり中(FredWhileShaving)」 には電気の部品が含まれていると考えた。したがって、CycはFredがひげをそっている間、 Fredはそれでも人間なのかと尋ねた。 『深層学習』 著者: Ian Goodfellow, イアングッドフェロー, Yoshua Bengio, ヨシュアベンジオ, Aaron Courville, アーロンカービル
>>474 何がいいたいの?主張は?独学は良いの、悪いの?
>>469 サンプルのほとんどがオブジェクト指向的な書き方じゃないからな
こうするときはこう書くみたいなのの羅列で脳が滅茶苦茶に破壊されるイメージはある
なのでサンプルの写経じゃなくてオブジェクト指向的な書き方もできるから
matplotlib でもそっちの書き方してるものを参照する(書く)ようにするとまだまし
自分には学歴も収入も無いから、自然科学の素質が無いと勘違いしている人居ないか? >コルホーズ大学さ
自然言語処理の知識はゼロなのでわからないです。面白いアイデアだと思うので、Twitterの自然言語処理が専門の方々に聞いてみては?
https://peing.net/ja/q/417c9e29-35de-4c95-8323-afd6a50fcbc7 言葉のかわりに動画で理解ってただのGANじゃん 動画でやろうとするとデータ量膨大になるだろうしそもそも収束しなさそう
動画が判りやすいっていうのこそ人間の錯覚なのかもな
>>461 >勉強する場としてはアメリカの有名大学くらいの環境が望ましいですよね。
ソ連のコルホーズ大学のほうがドイツ人からは『感謝』されてるけどなw
静止画で2次元 動画で時間軸付けても高々3次元 人間は3次元以上のものは2次元でしか「目で見れない」 4次元のものは3次元2次元に還元して「見ている」 そりゃAIに負けるわ
デュアルコアプロセッサは二つのプロセッサがメモリーを共有している。 これに対抗するには茶碗に二つの脳を入れて接続しあうよう培養するしかないのではないか。
文系脳メモリーと理系脳にメモリーに分けて入れる。 プロセッサはいつも論争状態。
>>491 何人もの脳を入れると多重人格AIを楽しめます
>>469 自分で使い易いようにラッパー作ったら?
>> 464 >誰か、正則化(L1、L2)について、分かりやすく教えてくださいませんか。 誰も教えられないということは、 やはり、難しくてよくわかっていないんですかね?
正則化はlossの計算に正則化項を加えること L1正則化は正則化項がパラメータのL1ノルム、L2正則化ならL2ノルム 調べたら分かることだろ
>>488 学力やら学費やらで差別されない平等主義ソ連の教育方法は、もっと見直されるべきと思う。
>>501 もと公務員か教員だと言いそうなこと、きれいなことだけ教えられてうのみにしている
多数派民族がたくさんある少数民族を迫害しいじめる機関でもあったらしい
もうひとつの大国も同じ
>>505 単に覇権争い、帝国主義時代のイギリス・フランスと同様
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:最新の国際ニュース▽特集・“EU批判のリーダー”再選?ハンガリー議会選挙▽ガザと東日本大震災の被災地、願い込めたたこ揚げ▽AIによる画像認識、実用化の最前線
放送日:2018年04月04日
開始時刻:22:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
「人工知能」にマッチしました.
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:AI=人工知能の最新技術展が開催中。ガンの早期発見を目指す“AI内視鏡”など、医療分野での活用に期待が集まる。ドクターAI実現の可能性と課題を見つめる。
放送日:2018年04月06日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月06日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月06日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月06日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
>>506 なんで平等の共産党同志で覇権争いするんですか?
どっちかというとイスラムのスンニ派とシーア派くらい違いません?
もっと過激?
ドイツ人はソ連軍に感謝してるのに、何で日本人はソ連軍に感謝しないんですか?
ガウク大統領は、次のように強調しているー
「1945年5月8日、我々は解放された。我々を解放したのは、ソ連の諸民族の代表者達だったが、そればかりではない。
それゆえ、我々は、感謝と尊敬の念を示さなくてはならない。戦後ドイツが、ベルリンの壁により長い間分断されたという
事実でさえも、そうした気持ちに影響を与えるべきではない。一部の観測筋は疑っているようだが、私には、
ロシアにもロシア人に対しても問題はない。」
http://jp.sputniknews.com/europe/20150502/284616.html 「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:AIで発話“ヨミ子”制服リユースに注目!
放送日:2018年04月04日
開始時刻:23:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月04日
開始時刻:23:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月04日
開始時刻:23:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月04日
開始時刻:23:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
>>513 ルター派の牧師、左の頬を打たれたら右の頬を差し出すw
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▼AI開発の舞台裏 とんかつを大量に”食べて!?”AIが賢く育つ▼桜中継・奈良吉野山▼【朝ごはんの現場】子どもたちを見守る交通指導員。ナレーションは下野紘さん。
放送日:2018年04月05日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月05日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月05日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月05日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▽ここまできたAI機器 ▽最新・社員寮事情 ▽はるな愛が語る生き方 【キャスター】田所拓也,合原明子,【気象キャスター】平井信行
放送日:2018年04月05日
開始時刻:18:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月05日
開始時刻:18:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月05日
開始時刻:18:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月05日
開始時刻:18:10
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:最新の国際ニュース▽特集”原子力大国”フランスが狙う「廃炉市場」▽シリア難民から五輪をめざす▽加速する中国のAI開発の現場 ほか
放送日:2018年04月12日
開始時刻:22:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
>>498 理解できていないヤツの典型的な説明だなw
こういう知ったかが一番質悪い
>>526 いやあってるとかあってないとかの話じゃないってことだろ
「分かりやすく説明してください」が理解できてないってことかな
この記事がわりと分かりやすいのではないだろうか
スライドもみること
https://www.techcrowd.jp/machinelearning/regularization/ 足を引っ張る馬鹿に合わせて衰退していく日本社会の縮図
>足を引っ張る馬鹿に合わせて衰退していく日本社会の縮図 頭弱い奴の発想
stackoverflow とか見てると優しく教えてって質問には優しく教えてるよな おっと初学者か簡潔に記述してマウントしてやろwwってのは少ない
>>529 どこの国もそんなもんだよ
自国がひどいと思い込むのは他国のことをまったく知らないベンキョブソクのためであります
まず旅に出よう、もっとひどい国ももっともっとひどい国もたくさんある
>>528 人への教え方が上手な人
>>498 人への教え方が下手な人
まさに典型的だなw
正則化とは何かと言われれば
>>498 なんのためにやるとかと言われれば
>>528 まさかノルムや学習が誤差関数最小化する問題ということを知らずに質問してるわけでもないだろうし
>>498 の説明で過不足ないだろう
理解できないならPRMLで基礎から勉強した方がいい
>>539 人をアホ呼ばわりする人が出てきました。
あなたは人との接することが苦手な人ですね。
頑張って克服しましょうね。
>>540 >>498 は質問者の意図をくみ取っていないということでは?
忖度もそうだけど 池沼は逆の意味に取ったりするからな
日経ソフトウェアが別冊付録付きでpython機械学習特集になっとった
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▼日米首脳会談、北朝鮮、貿易問題は?▼ナイキ創業者インタビュー。成長支えた日本企業▼AIが面接官に!?変わる採用▼「朝ごはんの現場」、ナレーションは櫻井孝宏さん
放送日:2018年04月18日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月18日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月18日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年04月18日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
プロフェッショナルの方、どなたか教えてください(/ω\) 今、下記内容のdockerimageを作成したいと思っています。 @ ベースのイメージ:jupyter/datascience-notebook A Tensorflowを使いたい ※@にTensorflowがインストールされていないため その為にdockerfileを下記の通り作成したのですが、 出来上がったdockerimageから作成したコンテナ上で上手くtensorflowが動きません。 ※コンテナ内でpythonを起動し、そこで「import tensorflow as ts」を実行すると以下のエラーが出ます。 RuntimeError: module compiled against API version 0xc but this version of numpy is 0xa ImportError: numpy.core.multiarray failed to import ImportError: numpy.core.umath failed to import ImportError: numpy.core.umath failed to import 2018-04-20 03:56:29.133557: F tensorflow/python/lib/core/bfloat16.cc:664] Check failed: PyBfloat16_Type.tp_base != nullptr Aborted dockerfileの内容は以下になりますが、何か間違っていますでしょうか? もし間違っている場合は、修正内容をお教えください。m(__)m ■dockerfileの内容 From jupyter/datascience-notebook RUN pip install --upgrade pip RUN pip install tensorflow==1.5
module compiled against API version 0xc but this version of numpy is 0xa
なぜいろいろなページで書いていないか不思議なのですが 教師データ(in)に記号や地域などが存在した場合にどのように変換してニューラルに流すのが普通なのか知りたいです モデルを分けるとデータが少ない地域の予測にほかの地域の情報が反映されません 地域毎に1と0を使うとその情報のために都道府県だと47次元使います アドバイスお願いします
自然言語系や画像処理系では数百次元の入力が当たり前だから、2桁なら全然少ない方 地域の隣接関係が重要なら、補助入力に緯度・経度・高度を入れる多入力モデルにすると面白そう
老舗出版社の中途採用だよ。
●データサイエンティスト
データサイエンティストとしてビッグデータの解析・分析のご経験がある方を募集します。
給与1500万〜5000万円(経験により優遇)
●人工知能(AI)エンジニア
AIのプログラムのご経験がある方を募集します。プログラムの経験がなくてもAIに関する研究のご経験がある方も歓迎します。
給与1500万〜5000万円(経験により優遇)
●ブロックチェーン開発エンジニア
ブロックッチェーン、フィンテックのプラグラムのご経験がある方を募集します。
プログラムの経験がなくてもブロックッチェーン、フィンテックに関する研究のご経験がある方も歓迎します。
給与1500万〜5000万円(経験により優遇)
http://www.j-n.co.jp/recruit/ どこも人材不足だな てかあれだな理系の学生全員スタンフォードの機械学習コースやらせて AIデータサイエンティストにしちまえばいいのにな ぶっちゃけ新しくフロー考えて実装してるような奴以外はライブラリ使ってるだけだし 中身を後から論文見つつ理解するだけなら数学的にはそこまで難しいことしてない pythonやOctaveそのものを覚える手間なんてカスみたいなもので あとはライブラリの使い方だけ
派遣は、 給料30万円 + 派遣会社70万円 = 客100万円 給料40万円 + 派遣会社60万円 = 客100万円 給料50万円 + 派遣会社50万円 = 客100万円 YouTube 動画で、セレブエンジニアの小松和貴が言っているけど、 自分がどう謙遜しようが、客が払う値段は変わらない 謙遜して30万円をもらっても、客は100万円のプログラマーとして扱うから、 できるだけ多くもらった方がよい
「AI」にマッチしました.
「スマホ」にマッチしました.
「パソコン」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:スマホのアプリやパソコンで使える自動翻訳が、急速に進化している。2020年の訪日客増を見据えた技術開発やAIの進歩が背景にある。進化の舞台裏と使い方を伝える。
放送日:2018年05月11日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月11日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月11日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月11日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「人工知能」にマッチしました.
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:最新の国際ニュース▽特集・中国AI=人工知能開発で覇権を▽現地中継・あす英ロイヤル・ウェディング。変わるイギリス王室▽“仮想通貨の楽園”米領プエルトリコ ほか
放送日:2018年05月18日
開始時刻:22:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
「人工知能」にマッチしました.
「AI」にマッチしました.
「サイエンスZERO」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:人工知能が映像の世界を席巻。白黒の写真や動画をたちどころにカラー化。スポーツ観戦を楽しくする、映像や音声の合成技術も進む。これまでの常識を覆すシルクも登場。
放送日:2018年05月20日
開始時刻:23:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=31& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月20日
開始時刻:23:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=33& ;area=001&date=&tz=all&mode=2&next=&f=week
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:人が感じる暑さや寒さによって、より正確な食品売上予測を目指す研究が進んでいる。温暖化などで季節食品の需要予測が難しくなる中、最新の研究成果や課題を見てゆく。
放送日:2018年05月24日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月24日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月24日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月24日
開始時刻:10:05
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▼AI兵器が戦場を変える。危険性は?国際社会の規制は?▼発掘、1964年聖火リレーのカラー映像。あの日のランナーは?▼ネパール大地震から復興めざすコーヒー栽培。
放送日:2018年05月26日
開始時刻:06:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月26日
開始時刻:06:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月26日
開始時刻:06:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月26日
開始時刻:06:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▼「ヒアリ」国内初の発見から1年 対策は▼伝統の大学相撲部に女性主将が誕生▼日本人選手の活躍は?大リーグ情報▼「おはBiz」外回りはもう古い?AIで変わる営業
放送日:2018年05月29日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月29日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月29日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年05月29日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
>>553 一番不足しているのは、理論や方法論の使い手じゃなくって、
AIの業務適合性を算定できる営業的立場の奴。
「人工知能」にマッチしました.
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:7年後には、高齢者の5人に1人が認知症になるとされる中、AI・人工知能ロボットがお年寄りを相手に活躍する現場などを通して、超高齢社会を支えるAIの最前線に迫る。
放送日:2018年06月08日
開始時刻:20:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=31& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年06月08日
開始時刻:20:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=33& ;area=001&date=&tz=all&mode=2&next=&f=week
>>564 そんなんそれこそCouseraで
アンドリュー先生適当に受けさせたら良いわ
数学的理論を完璧に理解しなくていいんだから、高校の微積を思い出せる程度の理系でいいしな
ぶっちゃけ機械学習の人材は自社で簡単に作れる
東大の松尾先生だってそういう相談があまりにもうざすぎてjupyter notebookでカリキュラム作って公開してたろ
日本語でどうしてもやりたいならそれやらせるでもいい
営業程度の理解度でいいならなおさら簡単
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:▼高齢ドライバーの事故を防ぐには▼現実味帯びるAIの個人選別▼舘ひろしさんが語る「定年後“終わった人”にならないために」▼人気集める“デリバリー型社食”
放送日:2018年06月04日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=21& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年06月04日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=22& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年06月04日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=61& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年06月04日
開始時刻:04:30
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=60& ;area=001&date=&tz=all&mode=2&next=&f=week
数学を紙と鉛筆で行うのは愚行だと思う。 微分方程式とか線形代数とか手書きで解くと 苦行でしかない上に解いた数式は「実行できない」わけだから 意味とか有り難みがまるでわからない。 学校ではPyでもRでもMatlabでも何でもいいから計算機を使って 数式のΣはfor文と同じ意味だということと、 合成関数を組み合わせて数式を表現することを教育したほうがいい。 紙でテストに合格するために計算必死でやって 「数学ってなんの意味があるの?」ってなる上に、 プログラミングで数式を表そうとするとできないとか阿呆としかいいようが ないだろ。 大学以上の数学は計算機をつかって行うものだよ。
>>569 それな。最初できなくて2か月ぐらい悶絶してた
>数式のΣはfor文と同じ意味 ちょっと違う 数学のΣは公式使って線形代数で解くからループしないで出せる
概出?
VIDEO 【大学数学】ベイジアンネットワーク【機械学習】
>>571 えーと、それ中の階差が同じ場合の話とかしてる?
ディープラーニングでスーパーマリオ オデッセイ
クリアできるようになると思う?
こんなゲームだけど
VIDEO 操作方法
VIDEO >>569 そういう考えだからいつまでたってもあなたは駄目なんだよ。
まだまだ数学の本質を理解するまで時間がかかりそうね。
頑張って。
>>567 統計学・機械学習のコンサルタントは激務だぞ
・現場で機械学習を応用できそうな仕事を見つける
・自分たちの仕事を素人に説明する
・料金や納期などの見積もりを先方に提示する(一番きつい)
・可能なら何のモデルを使って分析するか見極めて下流の工程の人たちに指示を出す
コンサルタントとしての能力もフルに求められる上に、
機械学習に対する知識も実は一番求められるポジションだから
この人の能力次第でチームの生産性が激変する
ハードウェアの計算処理性能ありきって事を理解してない人が多い
>>577 計算処理に何十年かけても良いなら可能かもしれない
今の人工知能って昆虫の条件反射みたいなものなんでしょうね
chainerとkerasはどっちがオススメ? kerasの方が若干最新の書籍が多そうだけど。
kerasの方が圧倒的に楽 tensorflowと同じ環境で動かせるし
人工知能は○歳相当の知能を持っているとかいうじゃん? あれって嘘だよね。 人工知能がやったことを人間がやるとすれば ○歳ぐらいの知能が必要って意味でしょ? ○歳相当のことを人工知能ができるという意味じゃない 例えばアリやハチの動き、これを人間がやるとすれば 意外と高い知能が必要だと思うんだよね 食べ物をとってきたり巣を守ることを考えれば、 大勢の3歳児で果たして同じことができるかどうか だからってアリやハチが3歳児の知能を持っているわけではなく 3歳児がやることをやってみろと言われたら、アリやハチはできないだろう 人工知能は知能を持っていない。もちろんだからといって使い物にならないってわけじゃなく コンピュータの完璧な記憶と高速な処理は、人間の天才の知能を超える その点ではコンピュータは人間でいう1万歳以上のことをしてるんじゃないか?w
>>591 全然おかしくないよ
「人工知能のIQ」今は6歳児並み でも1年後に人間の脳細胞を超える
https://www.j-cast.com/2017/10/12310927.html?p=all とか言ってるけど、5歳児でこういうプレーできるんやで
VIDEO だけど人工知能には無理
だけど膨大な回数やればこれと同じことができるかもしれない。
その膨大な回数をマシンパワーで高速に実行してるだけにすぎない
>>590 自分の理解が追いつかない=嘘
って定義なら合ってると思うよ
>>593 ほんとな、誰が6歳児並みとか言ったんだろうかね。
昆虫みたいな脳でも、大量にデータが有れば
統計的な正しさが得られると言うだけだよね
>>594 あれあれ? 6歳児並みっていうのは本当なんですか?w
人工知能は人間の脳を模倣ではないからな ある意味では人間を遥かに上回り、逆に遥かに及ばない 何歳児という例えがおかしい
素人を騙すためのレトリック(例え話)だろ、特定の機能に絞っての話、 幼児には学習能力、運動能力、視覚、聴覚とか色々な能力があるだろ
◆Qiita投稿者のレベルの低さが表面化 〜一部引用〜 若手「機械学習の勉強のためにQiitaなどを参考にしていますがよく理解できません。」 先輩「Qiitaの殆どは自己満足の連中が多くそもそも本当に人に分かるように説明しようと書いていません。」 「加えて言うなら彼らは人に説明する力がないばかりかその理論すら本当に理解していないのです。」 「だからやたら論文の一部をコピペするだけして自分で咀嚼した内容での解説をしていないのです。」 若手「ではどうすればいいでしょうか。」 先輩「海外コンテンツがいいです。例えばCourseraなどいいでしょう。本当にわかりやすく説明していますから。」 「ただし、事前知識としてそれなりの数学とプログラミングの知識は必要です。そこは頑張って勉強しましょう。」
弱いAIと強いAIのことを無視して何歳ってのは無理あるわ。 犬が3歳とか4歳とか言うのはなんとなくそうかなって納得できるんだけど。
>>590 そもそも論で済まないが
もう少し文章能力を上げよう
>>590 今記事を読んだけど、
主な調査項目は
・「情報を取得する能力」
・「情報を外部世界に提供する能力」
・「知識に精通して蓄積する能力」
・「知識を創造する能力」
で、それぞれに対して調査を基に計算モデルをつくり、
AIの能力を「算出」したと書いてある。
つまりここでは身体性については述べていない。
ということであなたが嘘だと感じているその根拠自体が、
そもそも的を射ていないということです。
こういったバイアスの係った投稿をする馬鹿記者が日本には多いです。
気を付けましょう。
水滴 石を穿つ わずかな水滴でも、絶えず落ちると、固い石にでも穴をあける。 小さなことでも継続することで大きな結果になるという教え。 たぶんこういうことなんじゃないかな? 知能レベルで言えば、ドリルと水滴との違いがある。 でもコンピュータの高速な処理で僅かな水滴が落ちる時間を 大幅に短縮することで穴を開ける 結果だけを見れば、どちらも穴を開けることに成功してはいるが、 人間とコンピュータではそのやり方が大きく違う
>>604 そもそも論で済まないが
君ももう少し文章能力を上げよう
「人工知能」にマッチしました.
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:私たちの生活に欠かせないものとなりつつある人工知能=AI。“AI時代”に求められる能力や心構えとは?第一線で活躍する研究者やエンジニアが、高校生に語りかける。
放送日:2018年06月23日
開始時刻:14:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=31& ;area=001&date=&tz=all&mode=2&next=&f=week
放送日:2018年06月23日
開始時刻:14:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=33& ;area=001&date=&tz=all&mode=2&next=&f=week
今「JDLA Deep Learning for GENERAL 2018 #1」を終えました。 出題範囲が広すぎて、問題数多くて、時間なさすぎ><
>>613 それ興味はあった。
推薦図書買わないと厳しそう?
>>615 自分は推薦図書は全部買いませんでした。
推薦図書は3冊あるけど個別にいうと
・AI白書・・・買わなくていいかな。※なぜなら出題数が少なかったから
・松尾氏の本・・・立ち読み程度でいいかな。
・深層学習・・・これは買って読んだ方がいいかも。
ちなみに出題範囲はかなり広いです。
現在のトレンドやら法律やら。自動運転レベルについてもあった。
今回も2時間で230問くらいなので
1問30秒くらいで解いていかないとすべて終わることすら危うい。
この試験は、参考書やインターネットを使用してもいいわけだが、
正直言って、じっくり調べる時間などない。
つまり、問題を読みながら空欄に選択肢から選んだ言葉を
サクサク当てはめていかないと間に合わない。
他にも聞きたいことがあればいってください。
>>616 なるほど、確かに問題数が多いね
自分は LPIC ぐらいしか受けたことないけど、あれは 90分60問だったから
はるかに多い。問題を読んで理解するだけで30秒ぐらいかかりそうだ
>>582 機械学習コンサルタントは、AIに精通した奴、多いけど、
IT企業は、現状では、導入事例のある汎用AIの営業しか出来ん。
それに、モデル指定するにしろ、任せるにしろ、
放り投げられる下流って育ってるのかな。
>>617 合格したらAIの知識がある程度備わっていると言えなくもないレベル。
つまり広く浅くのレベルで会社の上の立場の人たちが
お客とはなしたりするときに話にある程度ついていけるくらいかな。
意味があるのはE資格の方かな。転職には引く手あまたになると思う。
しかし、E資格は相当ハードルが高いと思う。
プログラミング能力よりも数学の能力がかなり必要だし、
各ライブラリを使いこなせある程度実装経験を積んでいないときついと思う。
しかも、このE資格を受ける前にこの団体が指定した企業で一定期間教育を受けないと受験すらできない。
で、その教育が20〜40万もかかる異常さ。。。
こりゃ敷居高杉ですわ。。。
>>620 >転職には引く手あまたになると思う。
個人の感想ではしかたがない
>>621 ごめんなさい、
個人の意見ではないです。
ニュースを見ればわかります。
AIなんてお前達はしなくていい。世の中の話は詐欺師がAIと言ってるだけだから。 今さらAI資格に投資してどうするんだ役に立つわけ無いだろ。 お前らの会話見てると、ほんと馬鹿ばかりになったと感じる。 小坊、厨房からやりなおせ。
人工知能は目的じゃなくて手段 人工知能で何をするかが重要 で、同じことができれば人工知能はいらない
転職のためにE資格取ろうと思ってるけど意味ないのかな…?
>>628 意味は大いにありますよ
>>625 スキルや数学の素養がなくこの資格を取れないからといって
僻みはやめましょうよ、君、みっともないよ
>>626 >で、同じことができれば人工知能はいらない
本気で言っているならもっと勉強しましょうね
無知なことを言っていると笑われるよ
>>620 >しかも、このE資格を受ける前にこの団体が指定した企業で一定期間教育を受けないと受験すらできない。
タダの資格ビジネスだな
>>631 確かに資格ビジネスといいたいけど
そもそもこの資格は簡単には取れない難しさだし
しかも無料講義も別に行っているくらいだから
ただの資格ビジネスとはちょっと違うかなと思ってる
難しいかどうかではなく市場価値があるかどうかを問題にしてるのだが
>>633 では聞くけど
この資格に市場価値がないという根拠は?
逃げないで明確に答えてね
市場価値があるという根拠がなければ、 ないとみなして良い この理屈は、俺が作った資格に 市場価値がないという根拠があるかどうかを 判断するときに使う方法
>>637 なんだよ、結局明確な根拠はなしかよ
「この理屈は、俺が作った資格に」って、、、
君はちゃんと現実を見つめて勉強しなおすか
今の仕事で一生頑張るかだけだね
>>638 こいつは論外w
Albertの株価が急騰しているな。 みんなも買ってねw
給料が上がるのか、転職できて一千万の給料が貰えるのかw
単に資格が役に立たないとか言ってる人達って往々にして受験したくてもなかなか敷居が高くてトライすらできず、その資格を非難することでしか自分のやるせなさを解消出来ないと言う人達が殆どだよね。
>>646 ちゃんと転職情報見てる?
軒並み1千万超えてるだろうがw
AIブームも終わりって、、、誰もブームで勉強してないよ
そもそもなんで君はこのスレにいるの?
愚痴ばっか言ってないで素直にもっともっと勉強しなさい
それが無理ならこういうところに来ないこと
Albert、買っといたほうがいいよ。 トヨタが一番評価している会社。
>>650 その資格とったら一千万なのか違うだろアホ
>>653 そんなこと言った?
どうもこのスレはこういう知恵遅れの人が多いな
畳み込みとプーリング層は 重みとか微分とか誤差逆伝播法は関係ないの? というかこの層にはノード(ニューロン)が有るわけじゃ 無いんだよね?kerasだと「Dense()」をしているところが 中間の隠れ層っていうことは、それ以前の 畳み込み層とかプーリング層って入力画像をただ単に画像処理 しているものだという認識でOK?
確認したら畳み込み層ではフィルター行列が重み付けをしているんだな。 では畳み込み層のフィルター行列は「重み更新」の対象なの? 誤差逆伝播法とかでこの行列も更新するの?
つか色々諸事情でPRMLから入る羽目になったのだが、むっさ遠回りしてる感ある。 数式に抵抗は無くなったけど。 並行してKeras氏の翻訳版読み進め始めたけどやはり基本はコーセラ?
>>659 ほんとどこにでもいるよね
こういう余計な一言をいう人って
いいじゃない分からないことを聞いてるんだから
素直に教えてあげれば
自分が少しでも優位に立ちたいのかどうかわからないけど
こういう連中は本当にいなくなってほしい
>>662 それを気にするような豆腐メンタルだったらもう5chやめたら?
ほんとボクちゃんは5chに何求めてんだか
>>663 >豆腐メンタルだったら
>ボクちゃん
余計な一言を入れないと相手に意見すらいえないとは可哀想な生き方だと感じました
あなたのように5chに依存した生活を送っていると こういうさもしい人間になるのでしょうね
現実逃避もほどほどにしましょうね 犯罪者になる前に自身の言動を改めましょう
ではさようなら (もうここに来ませんからこの言葉を噛みしめて人生を送ってください)
JDLA Deep Learning for GENERAL 2018#1の合格通知が届いた! (合格者には併せて「JDLA合格者の会」の通知もあり) ---------------------------------------------------------------------- 【JDLA Deep Learning for GENERAL 2018#1】 開催日:6/16(土) 受験者:1988名 ※第1回目に比べ約500名増 合格者:1136名 合格率:57.1% ※前回56.8% 今回も合格基準は提示されず ---------------------------------------------------------------------- 人工知能の知識はそれなりにあったけど 兎に角問題数が多すぎで出題範囲もかなり広かったので実は自信がなかった 取り合えず人工知能ジェネラリストとして最低限の資格は取れたけど 自分はあくまでエンジニア希望なので次はE資格かな でもその前にcourseraやその他教育システムの修了証も取っても面白そう 論文もそろそろ出したい。。。日本人の論文って殆どないからなぁ
>>666 人工知能の知識がある程度ないと合格って厳しい感じ?
次受けようと思ってるから知りたい
人工知能の知識って必要? 人工ではない知能だけじゃ駄目なの?
>>667 知識が全くないなら書籍やネットでかなり勉強しないとつらい
>>669 駄目ですw
ALBERT今日も上がっているね。 買うぞ買うぞ買うぞ!
Albert、案の定、ストップ高だよ。 だから言っただろ、買っとけって。 今からでも遅くないぞ。
「AI」にマッチしました.
番組タイトル:「<input type="button" class="btn_to_hp">」
番組内容:マイケル・サンデル教授が、民主主義と哲学発祥の地・ギリシアの遺跡を舞台に、現代社会の難問を世界の若者たちと議論。第2回はロボットやAIの進歩をめぐるジレンマ。
放送日:2018年06月30日
開始時刻:22:00
http://www2.nhk.or.jp/hensei/program/wk.cgi?ch=11& ;area=001&date=&tz=all&mode=2&next=&f=week
>>582 営業やコンサルがモデルの指定まではする必要ねーだろ
そんなもんエンジニア側にやらせろ
できたら最高の超有能コンサルってだけだろ
大体、モデルの指定までコンサル営業がやってたら
エンジニア側はマジでコード書くだけだろうがアホか
AIコンサルに技術的に必要なのは
・業務内容の抽象的論理的説明及び記述
・業務から得られるデータの詳細な記述
それから見積もりにこだわってる時点でAIコンサルタントとして2流
どこも人材不足なんだから、自社でやらずに人任せでAIやろうってとこには
上限いっぱいまでふっかけりゃ良いんだよ
高等数学をアプリ化するとプロ電卓しかないのか?
アルゴリズム辞典みたいなのを探しているんだけど
>>680 最近のマ板はコピペ投稿しかないぞ
>>1 どういてお前らはこのまま、
【人工知能長者に喰いもんにされる道】
を《《《自らchoice》》》》すんのか教えて?
"""俺様が、
【【世界の最高税率を統一する方法!w】】解明してやった↓↓"""のに
マジ方法↓
マジで【小説掲示板】(下記↓URL)で《《《絶賛》》》された(←※『マジ』だからな?)俺様の↓↓↓↓↓
『『『『戦争をなくして【世界を豊かに】w までwする《《《超現実的》》》』』』な方法wwwww↓↓↓↓↓↓↓
本当に簡単な話し。こういう事。
人類社会のルールは現在、現実的に“弱肉強食”である。
ならば、(人類は、)それを、「分数の計算」の様な要領で(、いわば、「横流し」的に)己が理想とする、
(要は、↓)
"平等・公平・公正”的なルール(仮)に
↓↓↓↓↓
【(ルール)変更】してしまえばいいの。w
(『お前らの為』だぞ?w(←※【【戦争でも起きてさっさと死てえぜ!(w)と思ってるヤツら以外】】なw))
↑↑↑↑↑↑↑↑↑(は、)
道理にかない、強者も弱者も損をしない(←※実際は【超、得】するw↓)から(それらが
(つまり、(それを)【余裕】)で納得する事で)それが(【余裕】で)成立し、世界から「威力」を廃するから《《《《戦争もなくなる》》》》
んだよwwwww
ちなみに【超、得】するのは、(この理論は、それ(ルール変更)から行くと、)「世界の最高税率を統一する事で全世界が豊かに!」なるからだよwwww俺様は【マジ超天才】だからwwwwwwwwwww
↓↓↓↓↓↓↓↓↓↓
http://www.kakiko.info/bbs4/index.cgi?mode=view& ;no=10099&p=8
(※↑「 小説カキコ掲示板 長文 戦争をなくす方法 希代世界一位 」
【検索】でも出るが↑これで開くと順番どおり表示される(※順番どおりに見ないと(俺様の理論は【マジ超一流】だが『『威力』』が半減する)(←※「ストーリーがあるから」))
numpy配列の様々な変換しまくった 行列の値って中身確認しても意味あるのかな、 計算が進行して意図した.shapeになっていれば コードは間違えてないって判断でいいのだろうか? 数値の羅列を見ても計算が本当にミスっていないか 判断がつかんわ。
関係が深いのはTAUBVCのどれ? 何処?を勉強すれば役に立ちますか?
全部関係が深い っていうか数学をAとかBとか分けるのがそもそも頭沸いてる証拠
>>689 そうですね、聞き方が間違っていました。
オブジェクト配列と変数配列の空間座標の写像変換アルゴリズムにおいて
ベクトル行列の微分積分がよく分からないので復習のための
参考書籍かページを紹介して頂けませんか?
>>681 さんの
>高等数学をアプリ化するとプロ電卓しかないのか?
>アルゴリズム辞典みたいなのを探しているんだけど
に近いものを探しています。
例えば、ハイパボリックタンジェント関数の実装プログラムなど
検索しても以下のような説明書レベルしか分からないのです。
https://support.minitab.com/ja-jp/minitab/18/help-and-how-to/calculations-data-generation-and-matrices/calculator/calculator-functions/trigonometry-calculator-functions/hyperbolic-tangent-function/ 用途
ハイパボリック関数は、電気輸送(ケーブルや導線の長さ、重量、応力を計算する)、上部構造(吊橋の弾性曲線とたわみを計算する)、
および航空宇宙(航空機の理想的な表面被膜を判断する)など、
工学技術の分野において多くの応用に役立っています。
統計では、逆ハイパボリックサインがJohnson変換で使用され、
正規分布に従うようにデータを変換します。
工程能力分析によっては、正規性を仮定する必要があります。
数式の縦ベクトルの解釈にいつも迷う。 縦ベクトルってnumpyで定義するとどうなるの? np.array([1, 2, 3])なのか、 np.array([ [1], [2], [3] ])なのか 縦ベクトルnp.array([1, 2, 3]).T は元のベクトルと全く 同じになるっぽいね。
縦か横かは関係ないというか自分がどう見るかで変わる それより大事なのは右から掛けるか左から掛けるか shapeで自信がないひとは 適当な正方行列を掛けてみれば良い
>>700 君が期待してるのはこっちだろ
>>> np.array([[1, 2, 3]])
array([[1, 2, 3]])
>>> np.array([[1, 2, 3]]).T
array([[1],
[2],
[3]])
お前らもうディープラーニングの気持ちわかるの? こういうことしたいなーって思ったらホイホイとネットワーク組んでおし動いたってなるの?
>>703 ああそういうことか、ありがとう。
Conv層の入力画像が3チャンネルの場合、
フィルタ行列は3チャンネル別々のものが生成されるの?
それとも同じフィルタ行列を3チャンネルにブロードキャスト
するの?
>>705 別々に生成される。
フィルタの結果は加算されて1チャンネルの画像になる。
ニューラルネットの質問なんですがバイアスを入力1、重みbとして扱う時に X=[x1,...,xn,1] W=[[w11,...,w1k],...[wn1,...,wnk], [b1,...,bk]] Y=XW=(1,n+1) になりますよね 隠れ層がある場合は重みWの最後の列を出力1になるようにしないといけないと思うのですが W=[[w11,...,w1k,0],...[wn1,...,wnk,0], [b1,...,bk,1]] こうしてもいいのでしょうか
KerasのEmbeddingレイヤーについて教えてほしいんだけどさ
https://keras.io/ja/layers/embeddings/ >正の整数(インデックス)を固定次元の密ベクトルに変換します
の説明で、どういう計算をしたら
> 例)[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
になるん?
いやしかし機械学習という神風でPythonがRubyを吹き飛ばしたよね 特にこれから始めようとする人で、Ruby選ぶ人って激減なんじゃないかと
>>715 pythonは遅いのでJuliaに変わって欲しい。
>>718 pythonは遅いからc++にしてくれ。
フロント言語なんかお気楽さが命なんだから、CとかC++とかはありえねー。
ディープラーニングで関数の先の予測はできますか? 例えばsin関数を学習する例で言えば 学習データとしてsin0~360の範囲で一度ずつ学習させますつまり、0という入力に対し0を返し,90に対し1を返すように学習させます。学習後入力データとして0~360の範囲外のデータを入力した場合どのような値が帰ってきますか?
学習してラジアン入力の方が使いやすいとか指示してくれるAIの方がうれしい
教師データの分布から外れた値を推定できないのは当然のこと
ストライドを1にしたら、微小な位置に対する位置の頑健性が低くなりますよね?
それと、結局>722の答えとしてはどうなりますか?
プログラマーのなかには、解をひとつ見つけると、別の解の模索をしないまま、自分の知ってる1つの解だけが唯一の解だと断定したがる、頭のわるい人がいます。どうも彼らは、高校数学の知識が、まったく思考力に結びついてないらしいです。 そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。
関係ないよ、数学は数学、といってもたいした数学をやっていないんだろうけど(笑)
狭い世界しか知らないのに微積分程度の知識で偉そうな顔をする、理解不能w
courseraでMLの授業取ってるんだけど、 θ'X のoctave実装が、X * θ になってるんだけど、 どうして逆になってるの?'は転置です。 そのままθ' * X だとサイズエラーになります。
サイズを調べると、θ は 2 * 1 X は 97 * 2 でした。 Xはテストデータの行列のようです。 ちなみに最急降下法の実装です。 θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています
m×n行列とn×p行列の積がm×pになるくらい基礎中の基礎だろ
数学で良く使われる線形代数とMLのそれは違うからな
>>744 それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる
一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる
要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる
てか俺もまだMLやってる途中なんだけど 同じ教授のディープラーニングコースの方をやり終えた人いる? いたらどの程度日本語字幕付いてるか教えてほしい 1週間の無料期間だとちょっとしか見れないだろうから 日本語字幕ありとなしじゃ倍以上理解に時間かかるわ…
行列の内積や積の意味さっぱりわからずに単に数字の操作としてしかやってないからそんなつまんないところで躓くんだろうな やっぱ線形代数の入門書ぐらいは読んどいた方がいい
■クソマウンティング警戒情報■ クラス1 大学の授業で線形代数をやっただけのおっさん クラス2 大学には行かなかったが線形代数を独習したおっさん このあたりが出没してるので気をつけましょう。
線形代数知らないと大損だよ! 人工知能 ディープラーニング 機械学習 だけじゃないよ! プログラミングでかなり重要
行列学ぶにはには画像処理がいいって、 それ一番言われてるから。 データサイエンスから派生してOPenCV 始めたけどかなり楽しいゾ。 数式見るだけより画像がどう変化するかを 確認するとアルゴリズムの意味や目的が はっきりわかんだね。
ライブラリを使うには数学知識が必須 なんだよなぁ… 例えばnumpyを使うのに行列知識ゼロじゃ 使いこなせない。 逆にnumpyを使っているうちに行列への 理解が深まるってこともあるし。
回答がつくか自信がないですがいくつか質問です
@ 右上の▽E(w)の定義を教えてください
A なんで式の3行目のβにはtがくっついているのですか
>>569 もちろんある程度大学の数学をやった上で言ってるんだと思うんだけど
ある程度やった上での発言だとしたら頭が悪いわ
>>766 >@ 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>A なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる
Aの補足 学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。 この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。
>>766 です
ありがとうございます、解決しました
tが0から始まるとすればbeta^0でそっから1引いたものが分母になるから分母0にならないですか?
誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。
>>777 例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?
例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質によって何が伝えられるかは変わってくる。
>>780 そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?
東京大学理学部数学科に入って、数論幾何学を勉強したい。 でも脇見恐怖症だしなぁ・・・・・。
>>781 全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします
>>783 「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。
リアルプログラムでは学習した結果ってどうやって永続化してるの? ファイルに書き出すの?
基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから そのθをファイルに保存する 途中からの場合θのファイルをロードする モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する
CNNの畳み込み層でも活性化関数使うのが普通なんですか?
あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな?
https://www.google.co.jp/amp/s/deepage.net/amp/deep_learning/2016/11/07/convolutional_neural_network あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね?
3次元フィルタを使うことに関しては特徴マップが何層もあるから?
全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。
色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど 既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて 気軽に独自モデル試せるようなもんじゃないんだな ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ ソース見てもモジュール化されすぎてて全部理解するのには相当時間かかる 独自にモデル作ってる人らには頭が下がるわ フルスクラッチでやったほうが実装そのものは相当楽だろ でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな
既存の数学的アプローチでは汎用人工知能は無理。 新しい数学を創造する必要がある。
人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな 根本的にやってることが違う
数学は万物を定量化して表すもの 数学に出来ないのはヒルベルトのように、解く方法が解らない問題と 世界の誰も未だに気づいていない問題
そのうち人工知能の性能や危険性を監査する方法が必要になる 監査もAIにして相互に進化させる 人間のはるか上を行くAIになりそう
>>806 >監査もAIにして相互に進化させる
こういう自己学習はすべてのAIにて有効とは限らない、と思いますが
NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
https://arxiv.org/abs/1811.03962 ε-δ論法での「十分小さければ」みたいによくある表現だよね
t分布で自由度が十分大きければ正規分布になるとか、割とあちこちで十分大きければ論法は使われる 「十分大きい」というのが現実的なサイズなら何の問題もないし非現実的なサイズなら机上の空論というだけのこと
誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い 経験的に知られていたが謎だった事が理論的に解明された事に価値がある あと(指数ではなく)多項式時間と分かった事も大きいと思う
初歩的なもので申し訳ありませんが ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。 どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか? c exp(x) = exp(x + log c)
定義から追っていけばわかるだろ? expてのはeを何回掛けたか logはその逆 exp(log c) = cはcが特殊な値でない限り常になりたつ。 exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる これはexp(a+b)に等しい
>>817 ありがとうございます。
言われてみればなんで気づかなかったんだろってレベルでした。
ln 左辺 = ln (c * e^x) = ln c + ln e^x = ln c + x ln 右辺 = ln e^(x + ln c) = x + ln c 高校の算数で分かる
>>816 c = exp(log (c))
まずこれを理解して
c・exp(x) = exp(x)・exp(log(c))
= exp(x + log(c))
>>816 exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)
c exp(x) = exp(x + log(c)) log(c exp(x)) = log(exp(x + log(c))) log(c) + log(exp(x)) = log(exp(x + log(c))) log(c) + x = x + log(c)
ゼロから作るDeep Learningの中のAffineレイヤの部分で 行列の積 X・W をXで微分したものが Wの転置行列 になっており、 X・W をWで微分したものが Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。 この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。 後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが これってどう解釈すればいいのでしょうか? いまいちなぜすべてを加算するのか理解できませんでした。
>>823 行列 (i,j) 成分が
\sum_k( x_{i,k}*w_{k,j} )
になってる事から一つ一つ計算しな。
DeepLearningを試しにやってみたいけど Chainerあたりが手軽なの? ちなみに文系の馬鹿です。 回帰分析とSVMを Pythonで試したことあります。
そんだけやってればこのスレのほとんどの人より先に行ってるぞ
>>837 マジレスするとクラウドのがコスパいい
睡眠も妨げない
>>839 無料がいいならGoogle Colaboratory行っとけ
速度はイマイチだがCPUだけよりはかなりマシ
>>843 用途による
一般用途はAmazon、サクラ、google、Azure等
あとはサービス連携
ワトソンとか使いたいならIBM Bluemix
TPUで爆速機械学習とかならGoogle Cloud Platform
個人的な意見で申し訳ないが
使いやすいのはamazon aws
価格が安いのはGoogle、IBM
サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる
>>844 ありがとうございます。
取引先は機械学習するのにAzuzeにしたのですが
利用料金が予想以上に高いと言ってました。
いろいろ検討してみます。
値段はAwsでもそう変わらんちゃう Googleはちょい安そう
本業の問題解決にディープラーニングを利用するかディープラーニング自体を本業とするかでクラウド使うべきかは変わる GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い
>>847 何気に無視できないのはデータ量
訓練データや最終出力に大量のデータを保存する必要があるときはクラウドが高くつく
GPUのランニングコストはさほどでもない
さくらの高火力コンピューティングとかめちゃ高いよな。 あれ誰が使うんだろ?
>>845 利用料金、これからの課題やで
機械学習はこれからビジネスの世界になる
機械学習で精度はあがっても、その精度を出すためのコストが問題されるようになる
大半の用途ではコストがかさんで機械学習をする意味がない
(コストにはデータを集めるためのコストも含含まれる)
もう少ししたら、これが問題視されるようになる
>>850 1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。
GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。
そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。
V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1〜2万円くらいだろうか。
※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。
大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。
一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1〜3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。
>>852 コストは掛かるのはわかるが、それによって
なにが得られるかだよな
コストを掛けた以上の利益が得られなければやる意味がない
まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど
いいよな。結果が出なくても良い段階っていうのはw
>>852 ストレージは利用者に提供した分は必ず確保して使えるようにするから占有だけど
GPUは隙間時間を別の人が使ったりできる点は違うんじゃね
仕事で国の統計データ使うこと多いのに マジで勘弁して欲しいぞ
計算できるようにデータを 纏めるのが大変なんじゃ!
この地域にはこういう属性の人が多いからこういう戦略で行こうとビジネスの意思決定に使ってた国のデータが嘘だった場合、 これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない
ほんとにまともなAIなら 学習の結果として 不正な統計データが入力されたら 受け付けずに突っ返す動作にするのが理想だな
>>865 それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから
危機管理だろ、データが不正の場合当社は責任をもちませんと契約書に入れておくとか
V100搭載の計算マシンが2〜3ドル/hてのがクラウドの相場
安そうに見えて結構高いよね実は? 24時間回したら俺は生活できないorz
クラウド企業は大儲け! クラウド使う意味が分からん?
ディープラーニングは最小二乗法」で物議
慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説
https://www.itmedia.co.jp/news/articles/1902/20/news141.html さすがにこれはあかん、引退推奨レベル
だれを相手に書いてるかが問題で 「日経の経済教室」 なら あっそう でおわり
でも出力と教師信号の差を小さくするっていう点では 最小二乗法と同じじゃね? 多層にする事でより精度よく 複雑な問題に対応可能になっているけど もっとシンプルな構造で 同様の出力をできれば 学習の計算力も少なくて済む
別に、理解している人からすれば どうでもいい話しだよね。
別に最小二乗法である必要性はないし教師と予測の差を測る何かしらがあればいいだけなので全く本質的ではない
>>875 短い言葉で判りやすく伝えるにはどういう表現がいい?
深く考えてくれるAIなんです だからディープなんです な、なるほど!
ディープってのは単に中間層が複数あるということを言ってるだけだぞ
>>873 ディープラーニングを一言で説明しろって言われて
A. 最小二乗法みたいなもの
B. ニューラルネットワークを沢山繋げたもの
のどっちの説明が適切かだな
実際はAの最適化の要素とBの深いネットワークの要素のどちらも重要だから、片方だけ説明すると片手落ちになって突っ込まれる
小学生に説明するときと猿に説明するときで説明の仕方変えるだろ 臨機応変に出来ない方が馬鹿
猿に教えてるところを録音されて晒し者にされたのが今回の事案。 「猿が相手だったので猿向けに説明してたんです」とは相手もいる以上言えんわなw
「片手落ち」は使ってはいけない表現じゃなかったか?
>>880 ニューロンを沢山繋げたもの
って言われてそれで何ができるの?って思うけどな
炭素を沢山繋げたもの
って言われても価値があるものなのかわからない
炭なのかダイヤモンドなのか
>>884 結局は聞く側が何を知りたいのかによる
それによってどんな観点で説明するか変わる
ディープラーニングが何者か一言で説明しろと言われて一言で説明したらそれじゃ分からんと言われ、厳密に説明しようとしたらそんな難しい話理解できないと言われ
単純労働はもう人間がやる時代じゃなくなった DLが判らない人は職を失います DLが判る人は信用を失います
データによって関数近似するだけですと答えりゃ良いんだよ。 deepが今までの機械学習と違うのは関数を表すパラメータが多いだけ。 (まあ多いからそれなりの学習法が必要になるってことではあるのだが。)
確かに「関数って何?」ってレベルの相手に「最小二乗法」とか言っても伝わらんよな
そもそも最小二乗法知らないレベルの人がディープラーニングの意味を知ったところでその知識に使い道などない
>>891 パラメーターの多さは本質的じゃない
他のモデルでも増やすだけならいくらでも増やせるし
>>894 本質か本質でないかはわからんといったところだろ。
例えば混合ガウス分布のパラメータをdeep learning並にしてSGDで学習みたいなことを
実験した結果とかみたことないし、どれくらい差が出るのかは誰にもわからん。
入力データ入れたら、出力データを返す装置を作ってるだけ それだけの話
>>883 そうやな
ちゃんと片端って言わないとな
AIという名称を使ったおかげで 大きな予算が降りやすくなった
>>896 深さが効いている
NNの深さは表現力に対して指数的に効くが、幅は多項式的
だから「ディープ」ラーニングがここまで流行った
>>901 なるほど
まつおっさんはそこを説明し忘れたと
わざわざ"ディープ"ラーニングだと言ってるのに今更「深さが重要だよ」程度の説明までしてやらなきゃならないのか 無知というのは本当に面倒だな
>>901 深さはなぜ聞いてるんですか?
何に聞いてるんでしょうか?
まさか、非線形だからなんて答えないですよね?
自分で調べて理解する方が早いのをなぜわざわざ他人に聞くんだろう 自力でやるほどのことではないと言うならそんなことを知ったところで君の人生において使い道などないだろうに
>>904 それはね、ふか〜い意味がある
でいいんじゃないか?
>>904 同じ関数を同じ精度で近似したい時、幅を増やすよりも深くする方がニューロンが少なくて済む
理論的な所は論文がいくつもあるがフォロー出来てない
>>903 理論上は古典的な三層のMLPで関数の任意精度近似が出来るのになぜ"ディープ"にする必要があるのか? とか少しNN齧れば誰でも思い至る疑問を感じず、「"ディープ"ラーニングと言う名前だから深さが重要」で思考停止している人間よりマシだな
ゆうてもこのスレでディープラーニングのコード書いたことあるやつってほとんどいないよね?
>>906 理論的な箇所?
わらわら‥
ほとんど結果論でしか語ってないような‥
間違えた
>>907 >>906
ほとんど結果論でしか語ってない
>>907 いくつもあるか?本当に?
公理系からスタートしてる理論はほぼ皆無だよ
>>913 理由として公理系から出発するレベルで厳密な証明を求めるならこんな所で聞かないで論文を読むべき
単にマウント取りたいだけならその限りではないが
>>913 公理系の意味理解してるか?
標準的な数学の公理系に基づいているならわざわざそこから出発する意味はないよ
1+1の証明から始めてたらいつまで経っても目的の議論にたどり着けんやん
始めの仮定の部分を示せばよいと言っている その仮定が確からしいかどうか怪しいと言っている
怪しいと思うなら自分で正しいのか間違いなのか示せばいいのに
>>920 正しいか正しくないかは実験して確認するしかない
ヒッグス粒子にしろ相対論にしろ実験で確認できるまでは仮設
正しいかどうかに関係なく論理展開は可能
相対論で言えば光の速さが最速で一定というのは
実証されていない段階で論旨展開されて
時空間の相対性が導かれたと思う
>>908 少しNN齧れば誰でも思い至るようなありふれた疑問なら少し調べればいくらでも答えは見つかるだろうになぜ自ら調べないのか
調べても深さと幅の関係はそんな単純ではないという結論だがな。 深さをあげれば掛け算で表現ノードが増えるという理屈はあるがあれはあれで怪しいし。 とりあえず実験的には深さを増してった方が有効というのは正しそうだが。
>>923 >光の速さが最速で一定というのは
これどうやって実証されたの?
>>930 それが実証されたとは書いていない
導かれた予言が実証された
そっか、光の速度は量れたが 測定手段としては一定という量り方はないんだな
>>933 当時その実験やってる最中に偶然重力波が観測(というか観測じゃなくて到達と言うべきか)されてたら
歴史は変わっていただろうね
>>938 一回観測されたくらいじゃ変わらねーよ。
このあとどんだけ実験されたと思ってんだ。
重力波なんて小さ過ぎて検出されないだけで 常に到達し続けていると言っても過言ではない
観測されていないパンチラとかものすごい量になるんだろうなあ
せっかくパンチラしたのに見てももらえないとか可哀そう
客観的に確認・追実験できる形で記録すること 要は論文を書くこと
後から誰も何も確認できないなら観測していないのと同じだからね 「宇宙人見ました!写真も映像もないけどね」だと他人からすれば何の価値もない
まあダークマターとか言われてるものも パルサーのスピン軸がたまたま地球の方向を 一度も向かないだけのものが ものすごい量あるんだろうなあ
>>949 何がどれだけあるかはっきり分かっていないので、
何かないと計算が合わないから何かあることにする
ここまでは分かるんだけど、
宇宙はダークマターで満ちている!←おかしくね?
おまいら 単なるデータへの あてはめに 高尚なこと 求めすぎだと 思うぞ? うまくあてはまった! マンセー! で、いいじゃん?
>>950 おかしいと考える人も普通にいるだろうね。
エーテルはなかったがヒッグス粒子はあった、
とされている。
結局一番観測結果を説明できるモデルは何かという話。
>>954 理屈上これ以上物質はないはずだから残りはダークマター←わかる
どれだけ物質があるかわからないけど残りはダークマター←意味不明
ということを言いたいわけだが。
>>957 仮説にすぎないが、理由がわからないと仮設を認めないはギャップがあるが
>>950 お魚さんが
宇宙は水でで満ちている!←おかしくね?
というのと同じ
>>960 理由が理解できなのか、勉強しろよ
シリーズ現代の天文学(全17巻)
魚でも地上(空中)の人間の顔とか識別してるし 虫が飛んで来たら水面より上にジャンプして虫捕まえる鯉とかいるし 961 は仮説以前の問題
>>928 受けた。物体検出精度指標の計算問題とか出たねw
定義知らないと死亡。数学っていうか算数か。
>>957 すまん、
上になぜ納得できないのか下はなぜ納得できるのかさっぱりわからん。
別にどっちもどっちにしか思えないんだけど。
>>957 科学に対するスタンスの違いかと。
観測できないものに想いを巡らせたところでそれは想像でしかなく宗教みたいな水掛け論になって不毛。
あくまで現時点で観測できるものがすべてで、それで説明できない部分はXと置いてそれが何かを考えましょう、という発想なのかと。
公平な立場だとだと思うよ。
まだまだ分かんないことがたくさんあるよね、区別とか分類すらできないし、話がしやすいようにとりあえず一くくりにしてダークマターって名前つけとこうか、ぐらいの事だと思います。
>>966 下は「残り全部」とか言ってるけど、観測できないだけの物質があるかもしれないじゃん。
>>970 それは上の言い方でも下の言い方でも生じる疑問では?
統一理論ニダ ↓ 説明出来ないものがある ↓ 観測出来ないものが影響していることにしよう ↓←(この時点で既に観測出来ないのに「存在すること」が前提になっている) 補正したニダ ↓ 上手く行った これって天動説だろ
理論的には何かが存在するという前提を置かないと成立しないが今のところ観測していないものをダークマターと呼ぶだけ 理屈も何もないけど適当にダークマターとやらを登場させたわけではないわけで、指摘は的外れすぎる
>>969 たとえばAI系の知識が全くない人がAI系部署に配属されちゃったりした場合みたいな
- 本人に基本的な知識がない
- 関係者一同からも素人だと認識されてる
みたいな状況sだったら、講座も含めて資格取得に向けた行動aをとることに対する収益Eはたかいんじゃね?
みたいな行動価値関数 Q^π(s,a)だと思う。
>>969 とる事自体の価値は分からんが、漠然とAIの勉強するよりは資格という分かりやすい報酬に向かって進む方がメンタル的に良いと思う
資格なんか下らんというひとの大半は資格に合格できない人
>>969 企業が社内エンジニアの教育によく使ってる
個人で受ける人はE資格は今のところ少ないね
英語分かるならコーセラの無料コース+ディープラーニングコースなら同程度の内容だし
資格取らなくてもいいけどその分野で普通に働いてる人が取れるレベルの資格が取れないのはヤバイ 取らないのか取れないのかの区別が大事
資格よりカグルで何位とかの方がアピールになると思う
大企業とかでこの資格持ってる人は優先的に採用しますみたいなのが出てきたら機械学習の分野にだって資格は定着するよ
大企業は、そういう資格を持ってる人を「使う」だけで 採用したいと思うかどうかは別の話だな。
>>984 資格は定着しても(それも怪しいが)技術は定着しない
今の日本の凋落っぷり見れば判るだろ
とりあえず老害にならないこと。 データ分析?15年?はぁ? それが資格なんかよりもずっと重要。
若い自惚れた馬鹿連中が 『私はデータサイエンティストです!』 とか言ってるんだ。 論文も書いたことないのにw 控えろよクズ!
>>989 若害がひどい
ど素人の馬鹿のくせに
『私はデータサイエンティストです!』
とかw
自称データサイエンティスト「ロジスティック回帰?何ですかそれ」
wikipediaで 機械学習 ディープラーニング データマイニング それぞれ同じ絵で説明されてたわω
ディープラーニングやってみてるけど、 こりゃ難しいわ。 さっぱり分からんので、 書店にいって分かりやすそうな本買ってきたw アホな俺は涙目!
>>998 マセマ の馬場先生に「ディープラーニングのための数学」でも書いてもらわんとな。
石村夫妻でも
-curl lud20241218044032ncaこのスレへの固定リンク: http://5chb.net/r/tech/1482808144/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「人工知能ディープラーニング機械学習のための数学 [無断転載禁止]©2ch.net YouTube動画>5本 ->画像>5枚 」 を見た人も見ています:・【PC】ついに人工知能(AI)を搭載したゲーミングマウスが登場!プレイヤーのスタイルを学習してLEDの光り方が変わる ・プログラマーになりたくて情報工学科来たけどやっぱり人工知能の道に行くわ ・【AI】あの人工知能の権威が教育の世界へ──「AIの活用法」を学ぶオンライン学習コースを展開 ・日本のフリーランスプログラミング言語案件ランキング 「Python」がシェア拡大、ブロックチェーンや機械学習などの需要増で ・【敵対的機械学習】カラープリントした紙で「AIの監視」から逃れる方法[04/29] ・【IT】機械学習を用いると匿名のソースコードから個人を識別可能であることが判明 ・「プログラマーを目指してる? だったらまず機械学習の勉強をしろ。年収がまるで違う」 ・AIファースト、文系学歴の終焉 6。 人工知能/スパコン/量子コンピュータ ・【未来】お悩み救う「AIブッダ」 仏典学習の人工知能、京大など開発 [北条怜★] ・【オーストラリア】シドニー大学にある複数のトイレに「中国人を●す」―豪メディア[8/02] ・DARPA、科学の危機に「人工知能」で対抗 ・【現場のミカタ】九州の大学に人工知能(AI)を活用した無人店舗続々 おにぎり、実験器具も販売 ・【学習】小中高生の読解力低下、人工知能に職を奪われる? 中3の5人に1人が主語と目的語を読み取れず★3 ・【ロボ】ソフトバンクの「ペッパー」 万引き常習犯を検知する機能を搭載 法人向けに機能拡充 ・ノーベル賞学者「コロナは武漢研究所の人工操作」⇒やっぱりトンデモだった 嫌儲に信じたバカはおらんよな? ・(名古屋工業大学・平田晃正教授のグループ)AIが予測 オミクロン株拡大で東京感染者数1日3000人超のおそれ【NHK】 [少考さん★] ・【ディープラーニング】カムフラージュ画像を深層学習で自動生成する「Deep Camouflage Images」(中山大学と華南理工大学) [少考さん★] ・【テレビ】玉川徹氏「うちわ会食」を提言した兵庫県知事に「科学リテラシーのない人がトンチンカンなこと…引っ込んでおいた方がいい」 [爆笑ゴリラ★] ・【統計分析】機械学習・データマイニング23 ・人工知能が採点したアイドルの顔面ランキング ーももクロ編ー ・人工知能が採点したアイドルの顔面ランキング ーももクロ編ー ・人工知能が採点したアイドルの顔面ランキング ーももクロ編ー ・【IT】MIT発のスタートアップFeature Labsは機械学習アルゴリズムの開発を加速する ・2018年上半期版!人工知能が採点したアイドルの顔面ランキング ―ももいろクローバーZ編― ・【悲報】学者「世界の多様性を集めたラグビー日本凄いというが、技能実習生を見てすごいとは思えない」 ・【バレンタインデー】人工知能(AI)でチョコが「本命」か「義理」かを判別 エンジニアの試みが話題に ・【神奈川】横浜の女子中学生の上半身触った疑い、バングラデシュ人の男を再逮捕 「女の子とは話しただけ」容疑を否認 [樽悶★] ・「女子小中学生が好きな芸能人ランキング」が発表。3位以下は嫌儲にいるオッサンの好みとほぼシンクロしたラインナップに ・ウーマンラッシュアワーじゃない方の芸人「エロアニメが大好きで声優学校にも行ってます。エロアニメ声優になりたいですね」 ・【中学生】部活動部員数で陸上卓球バドミントンなどの個人競技が増加。集団競技のサッカーバレーボールなどで大幅な人口減 ・【話題】五輪ボランティア名称案「シャイニングブルー」にネット「小学生が考えた最強の必殺技感」「高輪ゲートウェイみたい」 ・【芸能】高学歴芸人ロザン 吉本芸人のスリム化提案「人数絞るべき」「お客様ファーストで考えた時、本当に必要な6000人なのか?」 ・【芸能】<有吉弘行>日曜日のTV鑑賞事情を告白!「僕のラインナップは、朝からだったら「サンデーモーニング』(TBS)」ですよね」 ・なぜ機械工学科は工学部で一番人気となったのか ・【統計分析】機械学習・データマイニング6 ・女子中学生ら10数人が熱中症で倒れ、救急隊員らが汗の染みたスポーツブラの匂いを堪能 ・【IT】さくらインターネット、機械学習やPythonの講座を無償公開 [田杉山脈★] ・「数学分野で優秀な大学」世界ランキング1位はマサチューセッツ工科大学 日本の大学は? ・【国際】ニュージーランドは失われた未知の大陸「ジーランディア」の一部。米地質学会が発表 ・【芸能】もうやめて!ショーンKが炎上するほど感じる日本人の「学歴×ハーフ」コンプレックス ★2 ・クラスに数人はいた知能指数70~84ほどの知的障害グレーゾーンって卒業後どうなったんだろうな ・【芸能】尼神インター・誠子は激ヤバ!? 美女と女芸人のオナラの臭さを科学的に比較した結果…… ・【科学】中国 独自の宇宙ステーション向け無人の宇宙実験室を打ち上げ、来月には有人機をドッキングさせ滞在 ・【東京五輪】自転車女子ロードレース、完全ノーマークのオーストリア人数学者が優勝するハプニング ・【菅悲報】本田望結ちゃん、学校の先輩であるサッカー部員一人のために誕生日を祝ってインスタに意味深ツーショットをうpする ・【科学一般】高校生のなりたい職業1位に「エンジニア・プログラマー」男子全学年と高1女子に人気 学研 [すらいむ★] ・日本人ってやたらドラマとか映画とかで「学園もの」が好きなんだからキャスティングに若いアイドルやジャニーズがでるのは必然だろ ・学生時代に顔面目的で告白してきた何人かのイケメン彼ピッピと制服デートしまくったけど結局特定の彼とゴールインすることもなく ・【悲報】コロナで経営危機に陥ったマリカーのクラウドファンディング、支援者四人支援金11,500円でフィニッシュです ・EU、スマホに「裏蓋を開けてのバッテリー交換機能、OSバージョン更新3年、セキュリティ更新5年」を義務化!日本メーカー死亡か? ・【芸能】デヴィ夫人が思わず比較!?「前澤社長の資産の使い方とは大違いですね」医学研究費“100億円寄付”のユニクロ会長と [フォーエバー★] ・国試5浪ルシファーさん(38歳)、クリスマスイブはママにディナーとケーキを用意してもらい、本人はサンタのコスプレして高校数学を解く ・【シンガポールメディア】 日本人学校への“陰謀論”垂れ流し、母子襲撃事件は本当に「偶発的」だったのか? [6/29] [仮面ウニダー★] ・【毎日新聞】バングラデシュ首都ダッカで起きた人質テロ事件、実行グループ・リーダーの犯行動機はなんと【失恋】だった!【イスラム国】 ・【ディープス】一般男女モニタリングAV 素人女子大生限定!恋人がいない大学生の男女はキスだけで恋に落ちて初対面の相手とSEXしてしまうのか?惹...【ハイビジョン/独占配信】 [無断転載禁止]©bbspink.com ・最近プログラミングの学習講座って無料でやってる人少なくなったよな ・大阪大学3回生の鈴木俊輝くん(20)、知人女性を自宅に連れ込むやいなや顔やボディーを殴ってレイプし逮捕 ・【芸能】子供3人をスタンフォード大学へ アグネス・チャンのシンプルな教育方針 ・ウーマン村本さらに大暴走!朝生の学者論客に「おいバカ学者ども、お前らは街の人を知らない」 ・大学の友人にスプラトゥーン進められたからやってみたがひっどいなこのゲーム、雑魚しかいないわ ・語学学習や勉強に詳しい人 ヨーロッパの学校ってラテン語を教育課程で教えるらしいんだけどなぜ? ・【ニンテンドーラボ学会】オナホの側面にジョイコンを取り付けIRカメラでシコシコした回数を計測 ・【悲報】ハロプロ研修生グッズが小中学生メンバーにランドセル背負わせる完全ロリ商法のお知らせ
14:40:37 up 6 days, 1:04, 0 users, load average: 8.40, 8.73, 8.74
in 7.7303988933563 sec
@4.943078994751@0b7 on 121804