- 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

👨‍💻⬇︎豪華プレゼントの受け取りはこちら⬇︎👨‍💻
✅ Pythonチートシート
✅ NumPy, Pandas, Matplotlibチートシート
✅ 【有料級】画像特化ディープラーニングの講義資料
✅ 【有料級】約30時間分の無料学習コンテンツ
https://share.hsforms.com/1aXFYwwECQOWQpL7o0HkC2Q3zqie

🏫【キカガク】AI・データ分析を一生学べる社会人...
👨‍💻⬇︎豪華プレゼントの受け取りはこちら⬇︎👨‍💻
✅ Pythonチートシート
✅ NumPy, Pandas, Matplotlibチートシート
✅ 【有料級】画像特化ディープラーニングの講義資料
✅ 【有料級】約30時間分の無料学習コンテンツ
https://share.hsforms.com/1aXFYwwECQOWQpL7o0HkC2Q3zqie

🏫【キカガク】AI・データ分析を一生学べる社会人スクール🏫
https://www.kikagaku.ai/campaign/

◆━━━━━━━━━━━◆

👨‍💻⬇︎いまにゅの限定講座はこちら⬇︎👨‍💻
✅ 有料の業務効率化講座を無料配布予定(期間限定)
✅必ず知っておくべきエラー解決法9選
✅プログラミングによる業務効率化の重要な考え方と成功事例3選! etc...
https://line.me/R/ti/p/@114eqgxg

◆━━━━━━━━━━━◆

👨‍💻⬇︎キャリア相談はこちらから⬇︎👨‍💻
https://line.me/R/ti/p/@114eqgxg

前職キカガクから超有料級のコンテンツをいただきました!
ディープラーニングを学びたい!と思っている方は超必見の内容です。なかなかコンテンツが出回っていないPytorchの実装方法もわかりやすくお伝えします。

━━━━━━━━━━━━━━━
🧠 Twitter(ノウハウ)


📝 Instagram(図解コンテンツ)
※1月開始予定
https://www.instagram.com/imanyu_programming/

🎧 Voicy(音声コンテンツ)
https://voicy.jp/channel/3196

📺 Udemy(動画講座)
https://www.udemy.com/user/jin-xi-hang-ping-2/
━━━━━━━━━━━━━━━

⏰ タイムライン
00:00:00 オープニング
00:04:37 入門1:イントロダクション
00:16:59 入門2:手書き(ニューラルネットワーク)
01:49:03 入門3:ニューラルネットワークの基礎
02:10:56 入門4:ネットワークで学習
03:29:04 入門5:PyTorch Lightning
04:07:35 エンディング

#pytorch #ディープラーニング #python

#Python #プログラミング #初学者 #講座 #入門 #PyTorch #ディープラーニング #深層学習 #AI #機械学習
オープニング - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

オープニング

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
00:00:00 - 00:04:37
ディープラーニング入門5章()、from torchmetrics.functional import accuracyの後、accuracy(y, t)を入力すると、 TypeError: accuracy() missing 1 required positional argument: 'task'が出るのですが、エラー回避方法が分かれば教えてください。よろしくお願いいたします。 - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

ディープラーニング入門5章()、from torchmetrics.functional import accuracyの後、accuracy(y, t)を入力すると、 TypeError: accuracy() missing 1 required positional argument: 'task'が出るのですが、エラー回避方法が分かれば教えてください。よろしくお願いいたします。

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
00:03:56 - 04:10:50
入門1:イントロダクション - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

入門1:イントロダクション

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
00:04:37 - 00:16:59
入門2:手書き(ニューラルネットワーク) - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

入門2:手書き(ニューラルネットワーク)

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
00:16:59 - 01:49:03
みゅーん - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

みゅーん

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
00:47:58 - 04:10:50
入門3:ニューラルネットワークの基礎 - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

入門3:ニューラルネットワークの基礎

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
01:49:03 - 02:10:56
入門4:ネットワークで学習 - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

入門4:ネットワークで学習

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
02:10:56 - 03:29:04
動画更新ありがとうございます、のところでy=net.forward(x)    y と入れるとNotImplementedErrorと出てしまいますどうすればよいですか? - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

動画更新ありがとうございます、のところでy=net.forward(x) y と入れるとNotImplementedErrorと出てしまいますどうすればよいですか?

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
02:57:20 - 04:10:50
入門5:PyTorch Lightning - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

入門5:PyTorch Lightning

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
03:29:04 - 04:07:35
エンディング - 【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース

エンディング

【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
2022年12月17日 
04:07:35 - 04:10:50
00:00:00 - 00:00:02: 皆さんこんにちは今宮です今日の動画は 00:00:02 - 00:00:04: やばいですよ皆さんお気づきかと思います 00:00:04 - 00:00:07: がディープラーニングの理論から実装を 00:00:07 - 00:00:09: 学べる4時間越えの大ボリューム講座が 00:00:09 - 00:00:12: 出来上がりましたやばいの一言につきます 00:00:12 - 00:00:14: 皆さん一度はディープラーニングを学んで 00:00:14 - 00:00:16: みたいと思ったことあるのではない 04:07:38 - 04:07:39: でしょうか 00:00:17 - 00:00:20: 昨今のAIブームしつけ役となったD 00:00:20 - 00:00:22: プラーニングという技術を知ることは時代 00:00:22 - 00:00:24: の最先端を学ぶといっても過言ではあり 00:00:24 - 00:00:26: ませんそんなディープラーニングを学んで 00:00:26 - 00:00:27: みたいと 00:00:27 - 00:00:30: 意気込み挑戦するものの難しくて挫折して 00:00:30 - 00:00:33: しまう人が多いのも現状ですなぜディープ 00:00:33 - 00:00:35: ラーニングを学ぶ人の多くが挫折して 00:00:35 - 00:00:38: しまうので消化難しすぎるからでしょうか 00:00:38 - 00:00:40: 数学が含まれているからでしょうか 00:00:40 - 00:00:43: もちろんそれらも挫折理由には含まれます 00:00:43 - 00:00:47: が一番大きな挫折の理由は教材書籍講座の 00:00:47 - 00:00:48: 構成にあると思っています 00:00:48 - 00:00:50: ディープラーニングを学ぶとなると 00:00:50 - 00:00:52: 様々な周辺知識をインプットする必要が 00:00:52 - 00:00:54: ありますそんな中で 00:00:54 - 00:00:55: 幹ではない 00:00:55 - 00:00:57: 枝葉の部分まで盛り込みすぎてしまい結局 00:00:57 - 00:01:00: 何を理解すればいいのかわからないさっき 00:01:00 - 00:01:02: の話と今のはどこがつながっているのか 00:01:02 - 00:01:05: わからない状態になってしまうのですそこ 00:01:05 - 00:01:08: 苦手な数学初めてのプログラミングが 00:01:08 - 00:01:11: 重なるともうお手上げ状態なわけですだ 00:01:11 - 00:01:12: からこそ 00:01:12 - 00:01:14: ミッキーの部分を重点的に説明し 00:01:14 - 00:01:16: toomuchすぎない講座じゃないと 00:01:16 - 00:01:19: いけないんですもちろん本講座はしっかり 00:01:19 - 00:01:22: と幹の部分にフォーカスし理解が難しい 00:01:22 - 00:01:24: 部分を振り返し説明しているので安心して 00:01:24 - 00:01:27: 50個をいただきますまた少し話が変わり 02:44:34 - 02:44:36: ますが 00:01:28 - 00:01:30: 世の中の多くの人はディープラーニングを 00:01:30 - 00:01:33: ちゃんと理解できていませんだからこそ本 00:01:33 - 00:01:35: 講座でDプランニングを学ぶことに大きな 00:01:35 - 00:01:37: 価値があると思っていますディープ 00:01:37 - 00:01:40: ラーニングねああのすごい技術ねAIね 00:01:40 - 00:01:43: くらいの消防理解で終わるのかディープ 00:01:43 - 00:01:45: ラーニングのアルゴリズムを理解し最先端 00:01:45 - 00:01:47: 技術の裏側がイメージできるようになるの 00:01:47 - 00:01:50: かこの理解の差は皆さんの今後の仕事 00:01:50 - 00:01:52: キャリアにおいても大きな影響が出てくる 00:01:52 - 00:01:55: ことは言うまでもありません最近4人に出 00:01:55 - 00:01:58: てくる便利なAI搭載サービス裏側には 00:01:58 - 00:02:00: 大抵ディープラーニングを用いられてい 00:02:00 - 00:02:03: ますAIが使われているんだなとふわっと 00:02:03 - 00:02:05: した理解で終えるだけじゃなくよりクリア 00:02:05 - 00:02:08: なイメージを持った上でご自身の業務や 00:02:08 - 00:02:10: キャリアにつなげている方が今後必要とさ 00:02:10 - 00:02:14: れる先端人材最近よく効くDX人材に 00:02:14 - 00:02:16: なれるはずですそうは言っても 00:02:16 - 00:02:18: 数学も理解した上でディープラーニングの 00:02:18 - 00:02:20: 実装にも取り組むだなんて自分にできるか 00:02:20 - 00:02:23: なちょっと不安だなと思っている方ご安心 00:02:23 - 00:02:26: くださいしっかり腰を据えて本日の動画で 00:02:26 - 00:02:27: 学べば 00:02:27 - 00:02:29: 間違いなくディープラーニングの基礎を 00:02:29 - 00:02:31: 理解できるだけでなく 00:02:31 - 00:02:33: ご自身で実装する土台が身につきます本 00:02:33 - 00:02:36: 動画では初めて学習する方が混乱しない 00:02:36 - 00:02:39: ようたくさんの工程の中で今何をしている 00:02:39 - 00:02:42: のかを何度もお伝えしていますまた 00:02:42 - 00:02:44: イメージするのが難しいような内容も例え 00:02:44 - 00:02:46: を交えながらわかりやすくお伝えしてい 00:02:46 - 00:02:49: ますので安心してご自己くださいと 00:02:49 - 00:02:51: 言っておきながらですねなんと今回の講座 00:02:51 - 00:02:55: を担当する講師は私ではありません私の 00:02:55 - 00:02:58: 前職でもある幾何学の超優秀な投資にご 00:02:58 - 00:03:00: 依頼しました今まで多とプログラミング 00:03:00 - 00:03:03: 初心者にディープラーニングを教えてきた 00:03:03 - 00:03:06: 幾何学の知見が詰まった超優良級の講座を 00:03:06 - 00:03:09: 無料でこのチャンネルの視聴者のために 00:03:09 - 00:03:11: 作ってもらっちゃいましたマジ激アツです 00:03:11 - 00:03:14: おいおい今ニューじゃないんかと思うかも 00:03:14 - 00:03:17: しれませんがそこもご安心くださいこの 00:03:17 - 00:03:20: AI機械学習DeepLearningと 00:03:20 - 00:03:22: いう領域においては私よりもはるかに 00:03:22 - 00:03:25: 教えるのがうまいです私自身ですねAI 00:03:25 - 00:03:27: ディープラーニングなどを教えることから 00:03:27 - 00:03:30: 離れてそれこそ3年近く経ちました 00:03:31 - 00:03:33: わかりやすく教えられる自信がありません 00:03:33 - 00:03:36: 一方で私のYouTubeを普段ご覧に 00:03:36 - 00:03:38: なってくださっている方の多くはディープ 00:03:38 - 00:03:40: ラーニングを学びたいと思っていることも 00:03:40 - 00:03:43: わかってますだからこそ信頼できる前職期 00:03:43 - 00:03:46: 化学にお願いし講師を支えいただく形に 00:03:46 - 00:03:48: なりましたもし今動画をご覧になっている 00:03:48 - 00:03:51: あなたがどうにか頑張ってディープ 00:03:51 - 00:03:52: ラーニングを理解したい実装できるように 00:03:52 - 00:03:55: なりたいと思っているのであれば是非最後 00:03:55 - 00:03:57: まで見ていってくださいしかもこの動画の 00:03:57 - 00:04:00: どこかで豪華特典の 00:04:00 - 00:04:02: 場合もあります私が幾何学に無理ってこの 00:04:02 - 00:04:05: 動画を見てくださった方向けにプレゼント 00:04:05 - 00:04:07: を用意してもらいましたので楽しみにし 00:04:07 - 00:04:09: ながら学んでいきましょうということで 00:04:09 - 00:04:12: 早速講座に入っていきたいところですが私 00:04:12 - 00:04:13: から軽く 00:04:13 - 00:04:16: 講師の紹介をさせてください今回講座をご 00:04:16 - 00:04:19: 担当いただくのは広松講師ですなんとこの 00:04:19 - 00:04:21: 業界では珍しい 00:04:21 - 00:04:23: 女性講師でありしかも現役アナウンサー 00:04:23 - 00:04:26: ですアナウンサーということもあり声が 00:04:26 - 00:04:28: めちゃくちゃ聞きやすく非常に丁寧です 00:04:28 - 00:04:31: まさしく初心者には売ってつけの講師なん 00:04:32 - 00:04:34: 前置きが長くなってもあれなのでそろそろ 00:04:34 - 00:04:37: 広松講師にバトンタッチしたいと思います 00:04:39 - 00:04:41: ディープラーニングについて一緒に学んで 00:04:41 - 00:04:45: いきましょうで最初ですが私の自己紹介さ 00:04:47 - 00:04:49: 機械学習の講師をしております廣松ゆいと 00:04:49 - 00:04:50: 言います 00:04:50 - 00:04:53: 私自身がですねもともと 00:04:53 - 00:04:56: AI機械学習あとディープラーニングこう 00:04:56 - 00:04:58: いった分野について 00:04:58 - 00:05:02: 全くの未経験だったんですねで未経験の 00:05:02 - 00:05:04: 状態で幾何学に入ったという経緯があるん 00:05:05 - 00:05:09: 私自身も最初の方を思い返してみると 00:05:09 - 00:05:11: やっぱり最初って 00:05:12 - 00:05:13: 不安なんですよね 00:05:13 - 00:05:16: 初めてのことを勉強するってなるとただ皆 00:05:16 - 00:05:18: さんにちょっとこれだけをお伝えしておき 01:00:47 - 01:00:49: たいのはこの 00:05:19 - 00:05:22: ディプランニングという分野はですねもう 00:05:22 - 00:05:25: 学べば学ぶほどどんどんこう見えてくる 00:05:25 - 00:05:28: 世界が広がりますどんどんあこんなことも 00:05:28 - 00:05:30: 知りたいあんなことも知りたいでできる 00:05:30 - 00:05:32: ことが増えれば増えるほど 00:05:32 - 00:05:34: ご自身の感覚としてもどんどん面白くなっ 00:05:34 - 00:05:37: てくると思いますので最初初めて学ぶ方は 00:05:37 - 00:05:39: ちょっと不安に思ってらっしゃる方も 00:05:39 - 00:05:42: いらっしゃるかもしれませんがぜひ次は 00:05:42 - 00:05:44: どんなことを学べるんだろうとそう 00:05:44 - 00:05:46: ワクワクしながらですねこの動画を見て 00:05:46 - 00:05:49: いただければと思いますでは 00:05:49 - 00:05:51: ちょっとずつ中身の方に入っていきますね 00:05:51 - 00:05:54: まずですねこの 00:05:55 - 00:05:57: 機械学習 00:05:57 - 00:06:00: DeepLearningこの違いって皆 00:06:00 - 00:06:03: さん言葉にしっかり明確にできますかね 00:06:03 - 00:06:06: この関係性だったりとか違いっていうの 00:06:06 - 00:06:09: ちょっと動画を止めて10秒ほど考えてみ 00:06:09 - 00:06:16: てくださいいかがでしょうか 00:06:16 - 00:06:18: はいいかがでしょうか 00:06:18 - 00:06:20: AI機械学習ディープラーニングこれが 00:06:20 - 00:06:22: ですねちょっと簡単にご説明をしていき 00:06:22 - 00:06:24: ますね 00:06:24 - 00:06:28: こんな関係性になっております 00:06:28 - 00:06:31: まずこのAI人工知能というものです 00:06:31 - 00:06:35: けれどもこれあの研究者の中にも実は明確 00:06:35 - 00:06:37: な定義ってないんですね 00:06:39 - 00:06:41: 意見が分かれているというところのような 00:06:41 - 00:06:44: んですねただどの 00:06:44 - 00:06:47: 意見にも広く共通しているのが人間の 00:06:47 - 00:06:50: ノウハウをプログラミングする 00:06:50 - 00:06:53: 要はプログラミングで人間の脳波を 00:06:53 - 00:06:56: 代替してくれるものそれがこの人工知能 00:06:56 - 00:07:00: AIなんだよというこれ認識は共通してい 00:07:00 - 00:07:03: ますでその中に 00:07:03 - 00:07:06: 機械学習というものがありますこれAI 00:07:06 - 00:07:10: 人工知能の中にある手法の一つだと思って 00:07:10 - 00:07:14: くださいこれが機械学習です 00:07:14 - 00:07:17: でこの機械学習の計算方法いろいろあるん 00:07:18 - 00:07:19: 計算の仕方 00:07:19 - 00:07:21: アルゴリズムなんて言いますけどこの 00:07:21 - 00:07:23: アルゴリズムによってこのお名前が 00:07:23 - 00:07:25: いろいろ違います 00:07:25 - 00:07:28: ディープラーニングだったりサポート 00:07:28 - 00:07:30: ベクターマシンとか 00:07:30 - 00:07:32: あとは決定費とかいろいろ皆さん聞いた 00:07:32 - 00:07:34: ことあるかもしれませんけどそういった 00:07:34 - 00:07:37: ものがここに並んでくるというものなので 00:07:37 - 00:07:39: そのアルゴリズム 00:07:39 - 00:07:42: 計算方法の一つ機械学習の計算方法の一つ 00:07:42 - 00:07:44: がディープラーニングというものなんだと 00:07:44 - 00:07:46: 思ってください 00:07:46 - 00:07:49: この関係性ですね 00:07:50 - 00:07:52: 頭の隅っこでいいのでぜひ置いといて 02:13:04 - 02:13:07: いただければと思います 00:07:54 - 00:07:57: AI機械学習リプラーニングこの関係性と 00:07:57 - 00:08:00: 違いについてお伝えしました 00:08:00 - 00:08:02: でこのちょっと機械学習に 00:08:02 - 00:08:06: 焦点を当てていこうと思うんですが 00:08:06 - 00:08:09: 機械学習にはこの重要な3つのトピックが 00:08:09 - 00:08:12: ございますこれも皆さん聞いたことは 00:08:12 - 00:08:15: ございますでしょうかどう 00:08:15 - 00:08:17: でしょう教師あり学習 00:08:17 - 00:08:21: 教師なし学習そして共感学習と 00:08:21 - 00:08:24: この3つがあるんですね 00:08:24 - 00:08:26: で教師あり学習教師な私学習これはですね 00:08:28 - 00:08:30: 答えとなる教師データがあるのかないのか 00:08:30 - 00:08:35: とある方が教師あり学習ですない方が 00:08:35 - 00:08:38: 教師なし学習ですけどどちらにせよデータ 00:08:38 - 00:08:39: が重要なんですね 00:08:39 - 00:08:42: データを使って学習をしていくもの 00:08:42 - 00:08:45: 一方で共感学習というのは 00:08:45 - 00:08:49: データがないところで始められます 00:08:49 - 00:08:51: お掃除ロボットなんてこう 00:08:51 - 00:08:54: 皆さん使ってらっしゃいますかねあのお 00:08:54 - 00:08:56: 掃除ロボットを思い浮かべていただければ 00:08:56 - 00:08:57: と思うんですが 00:08:57 - 00:09:01: 細字ロボトってあるお部屋という 00:09:01 - 00:09:03: 特定の部屋というルールが決まった中で 00:09:03 - 00:09:07: それぞれ学習を進めてあここ 00:09:07 - 00:09:10: 障害物があるなとかここ壁になってるなと 00:09:10 - 00:09:11: かっていうの 00:09:11 - 00:09:12: 少しずつ 00:09:12 - 00:09:14: 学習していくんですよねでどんどん 00:09:14 - 00:09:15: どんどん賢くなって 00:09:15 - 00:09:17: 効率の良いお掃除をしてくれるというもの 00:09:17 - 00:09:21: ですがあれが共感学習の 00:09:21 - 00:09:24: 良い例かなと思います 00:09:24 - 00:09:25: データがない中でも自分でこうデータを 00:09:25 - 00:09:28: 集めていくというものですね 00:09:28 - 00:09:31: まず機械学習にはこの3つがあるというの 04:04:01 - 04:04:03: を押さえておいてください 00:09:34 - 00:09:38: 今回ですねこの教師あり学習について見て 01:48:53 - 01:48:55: いこうと思います 00:09:40 - 00:09:43: 教師あり学習ちょっとさらに詳しく見て 00:09:43 - 00:09:46: いきましょう 00:09:46 - 00:09:50: でここで学習と推論という言葉が出てき 03:28:26 - 03:28:28: ました 00:09:51 - 00:09:54: 学習度数の 00:09:54 - 00:09:55: AIとか 00:09:55 - 00:09:57: 機械学習って 00:09:57 - 00:10:00: 魔法のようにいきなり実運用できるわけで 00:10:00 - 00:10:01: はないんですね 00:10:01 - 00:10:04: ご自身のプロジェクトをご自身の会社であ 00:10:04 - 00:10:07: AI使いたいなじゃあAIちょっと買って 00:10:08 - 00:10:10: で買ってきてAIそのまま使うってそう 00:10:10 - 00:10:12: いうものじゃないんですよね 00:10:12 - 00:10:15: AIとこういったもの 00:10:15 - 00:10:18: まずが学習と 00:10:18 - 00:10:22: 推論この2つの段階が必ず 00:10:22 - 00:10:25: 必要なんですこの2つの 00:10:25 - 00:10:27: ステップを踏まないと 00:10:27 - 00:10:29: AIっていうのは実運用できません使え 00:10:29 - 00:10:33: ませんなのでまずこの学習と推論それぞれ 00:10:33 - 00:10:35: 何なのかっていうのを見ていきたいと思い 00:10:37 - 00:10:40: で今回あの教師あり学習で考えていこうと 03:57:24 - 03:57:27: 思います 00:10:43 - 00:10:45: 問題設定としては家賃の予測をちょっと 00:10:45 - 00:10:47: 取り上げてみます 00:10:47 - 00:10:49: 皆さん家賃って 00:10:49 - 00:10:52: 例えばお家を借りる時に 00:10:52 - 00:10:54: 家賃ってどういったもので決まってると 00:10:54 - 00:10:56: 思いますか 00:10:56 - 00:10:58: まぁもう書いちゃってるんですけど例えば 00:10:58 - 00:11:00: 部屋の広さだったり 00:11:00 - 00:11:01: 距離だったり 00:11:01 - 00:11:05: 治安の犯罪の発生率だったりいろんな条件 00:11:05 - 00:11:07: があると思うんですね 00:11:08 - 00:11:10: 条件をまず 00:11:10 - 00:11:11: Xとします 00:11:11 - 00:11:14: 入力値データと言ったりするんですが 00:11:14 - 00:11:16: これがXと置きますね 00:11:16 - 00:11:20: でその条件を元に 00:11:20 - 00:11:23: 実際家賃が決まっていくと思うんです 00:11:23 - 00:11:26: 部屋の広さが例えば30m2 00:11:26 - 00:11:29: 駅からの距離が100mで 00:11:29 - 00:11:32: 遅延犯罪発生率は20%ですこの場合の 00:11:32 - 00:11:35: 家賃はこれぐらいですよ 00:11:35 - 00:11:37: っていうのがこのセットになってると思う 00:11:37 - 00:11:41: んですねこれはそれぞれ入力値データと 00:11:41 - 00:11:44: 目標値データとこう呼びます 00:11:44 - 00:11:48: で実際にこれ予測値出てくる 00:29:26 - 00:29:30: 予測される 00:11:49 - 00:11:51: 家賃のことなんですがちょっと実際にです 00:11:52 - 00:11:53: 図を見て 00:11:54 - 00:11:56: ご説明していきますね 00:11:56 - 00:11:57: まずこの 00:11:57 - 00:12:01: 挿し木をお伝えして学習と推論の学習の 00:12:01 - 00:12:04: フェーズから見ていきましょう 00:12:05 - 00:12:07: 部屋の広さとか距離とかアジアとか 00:12:07 - 00:12:09: たくさんお伝えしたんですがわかりやすく 00:12:09 - 00:12:11: 1つだけ取ってきました 00:12:11 - 00:12:13: でまず 00:12:13 - 00:12:16: AIモデルにこのまだ何も学習してない 00:12:16 - 00:12:20: AIモデルに何をさせるか最初何をして 00:12:20 - 00:12:22: いくかというと 00:12:22 - 00:12:25: 部屋の広さ10m2の時は 00:12:25 - 00:12:26: 家賃は 00:12:26 - 00:12:29: 8万円ですよ 00:12:29 - 00:12:33: 部屋の広さ20メートル20m2の時は 00:12:33 - 00:12:36: 家賃は12万円ですよっていうのをこの 00:12:36 - 00:12:38: AIモデルにどんどんどんどん入れていく 03:02:28 - 03:02:29: んですね 00:12:40 - 00:12:42: どんどんどんどん入れていきますこ 00:12:42 - 00:12:45: れっていうのは今まで例えばその不動産屋 00:12:45 - 00:12:48: さんが持ってきたデータですよね 00:12:48 - 00:12:51: 持ってたデータ10m2の時8万円とつけ 00:12:51 - 00:12:54: ましたんで20m2の時102万円とつけ 00:12:54 - 00:12:56: てましたとこれ 00:12:56 - 00:12:58: きっとその不動産屋の 00:12:58 - 00:13:00: 不動産の会社の方が 00:13:00 - 00:13:03: 経験と勘でまあこれぐらいの広さだったら 00:13:03 - 00:13:05: これぐらいの値段じゃないのこれぐらいの 00:13:05 - 00:13:07: 人だったらこれぐらいの 00:13:07 - 00:13:09: 価格じゃないのっていうのでこうつけてき 00:13:09 - 00:13:13: たこれまでのデータがあるはずなんです 00:13:13 - 00:13:15: 今まで人間がつけてきた 00:13:15 - 00:13:19: 家賃ですよねこれをまず今まである今まで 00:13:19 - 00:13:23: 貯めてきたデータをたくさんAIに 00:13:23 - 00:13:24: 入れていきます 03:58:38 - 03:58:44: すると 00:13:26 - 00:13:29: AIって皆さん何でしたっけ人工知能です 00:13:30 - 00:13:31: 人間の 00:13:31 - 00:13:33: オノウハウを代わりにやってくれるわけ 00:13:34 - 00:13:39: じゃあこれ何すると思いますかAI 00:13:39 - 00:13:41: 観音言い方はお気づきかと思いますがこの 00:13:41 - 00:13:46: 10平方メートル8万円20m2こういう 00:13:46 - 00:13:48: データたくさんたくさんAIに入れること 00:13:49 - 00:13:51: AIが 00:13:51 - 00:13:52: 規則性を 00:13:52 - 00:13:55: 学習していくんですねあ10の時は8万円 00:13:55 - 00:13:59: か20の時は12万円かで30m2の時は 00:13:59 - 00:14:02: 15万円かとかいろんな規則性がわかって 00:14:02 - 00:14:06: くるわけですでこのデータを 00:14:06 - 00:14:08: 食べれば食べるほどAIっていうの賢く 00:14:08 - 00:14:09: なっていきます 00:14:09 - 00:14:11: 学習していくので 00:14:12 - 00:14:14: バイクをデータを 00:14:14 - 00:14:15: 食べた 00:14:15 - 00:14:17: AIですね 00:14:17 - 00:14:19: 賢くなっていきますで 00:14:19 - 00:14:21: 賢くなったAIのことを 00:14:21 - 00:14:22: 学習済み 00:14:22 - 00:14:25: モデルというんですねでこの学習済み 00:14:25 - 00:14:28: モデルがいよいよ実運用できる 00:14:28 - 00:14:30: AIだと思ってくださいこの推論という 00:14:30 - 00:14:33: ところが実音用のフェーズです 00:14:33 - 00:14:36: 実際に現場で使えるようになるのがこの 00:14:36 - 00:14:38: 賢くなった学習済みAIモデルというもの 00:14:38 - 00:14:41: ですでこの学習済みAIモデル何をして 00:14:41 - 00:14:44: くれるかと言いますと 00:14:44 - 00:14:47: 全く新しいお部屋ができましたと 00:14:47 - 00:14:48: 駅前に新しいマンション立って 00:14:48 - 00:14:52: 新しいお部屋ができましたとでそのお部屋 00:14:52 - 00:14:55: が15平方メートルらしいよと 00:14:55 - 00:14:57: これを学習した賢くなったAIに入れて 00:14:57 - 00:15:00: やると 00:15:00 - 00:15:02: AIはここの手の学習の経験があります 00:15:03 - 00:15:06: 規則性をしっかり 00:15:06 - 00:15:09: 学習できてるんですねということはあ15 00:15:09 - 00:15:10: 平方メートルだったら 00:15:10 - 00:15:13: 家賃は10万円ですというふうに 00:15:13 - 00:15:16: 勝手に予測をしてくれる 00:42:26 - 00:42:29: これが 00:15:18 - 00:15:19: 学習と 00:15:19 - 00:15:21: 推論のそれぞれのフェースでやっている 00:15:21 - 00:15:23: ことなんですね 00:15:23 - 00:15:26: 皆さん結構 00:15:26 - 00:15:28: AIっていうと予測あの 00:15:28 - 00:15:30: AIって言ってイメージ持たれるのが 00:15:30 - 00:15:33: 勝手に予測してくれるから便利じゃないだ 00:15:33 - 00:15:35: からうちもAI導入しようよっていう推論 00:15:35 - 00:15:36: のフェーズを 00:15:36 - 00:15:39: イメージされる方が多いんですけど 00:15:39 - 00:15:42: いきなり推論ってできないんですねこの 00:15:42 - 00:15:46: 学習でAIを十分賢くさせてようやくこの 00:15:46 - 00:15:49: 推論で実優運用のフェーズになれると 00:15:49 - 00:15:52: なので学習済みAIモデルってことはこの 00:15:52 - 00:15:54: 学習する際にとてもデータが必要になって 00:15:54 - 00:15:58: くるでデータをたくさんたくさん学習して 00:15:58 - 00:16:01: 賢くなってようやく実運用できる今まで 00:16:01 - 00:16:04: 人間が家賃決めてたんですよね経験とかで 00:16:04 - 00:16:06: 決めてたところをこの学習済みAIモデル 00:16:07 - 00:16:11: 予測値として出してくれると 00:16:11 - 00:16:12: そういったことをしているのが 00:16:12 - 00:16:14: AIだと思っていただければと思います 00:16:14 - 00:16:17: そして学習と推論というフェーズが欠かせ 00:16:17 - 00:16:22: ませんよというものでした 00:16:22 - 00:16:25: 皆さんここまでよろしいでしょうかまずは 00:16:25 - 00:16:27: AIとか機械学習Deep 00:16:27 - 00:16:28: Learningという言葉について見て 00:16:28 - 00:16:32: きましたそして実際AIってどういう風に 00:16:32 - 00:16:34: 使えるようになるのというところでこの 00:16:34 - 00:16:39: 学習と推論というところを見てきました 00:16:39 - 00:16:41: ここからですねさらに 00:16:41 - 00:16:43: 深くじゃあ 00:16:43 - 00:16:46: ディープラーニング 00:16:46 - 00:16:47: ニューラルネットワーク 00:16:47 - 00:16:49: 皆さんもお聞きになったことあると思い 00:16:49 - 00:16:52: ますこのあたりじゃあ実際どういったもの 00:16:52 - 00:16:54: なのかどういったふうに 00:16:54 - 00:16:57: 使われているのかというところを見て 00:17:02 - 00:17:05: ではここまでAIの概要をについて見てき 00:17:05 - 00:17:07: ましたでここからはですね 00:17:07 - 00:17:09: ディープラーニングについて 00:17:09 - 00:17:11: 早速理解を進めていければと思っており 00:17:11 - 00:17:14: ますでまずディープラーニングの理解に 00:17:15 - 00:17:18: ニューラルネットワークの構造というのを 00:17:18 - 00:17:20: 押さえていこうと思いますで後からご説明 00:17:20 - 00:17:23: しますがこのニューラルネットワークの 00:17:23 - 00:17:25: 層の数を増やしたものがディープ 00:17:25 - 00:17:28: ラーニングなんですねなのでまず 00:17:28 - 00:17:30: ニューラルネットワークについて見ていき 00:17:44 - 00:17:46: でここから私もあの手書きのノートを取っ 00:17:46 - 00:17:49: ていきます皆さんもですねあの理解深まる 00:17:49 - 00:17:51: と思うのでぜひ一緒にノートを撮っていっ 02:13:21 - 02:13:22: てください 00:17:54 - 00:17:56: でニューラルネットワークの中で 00:17:56 - 00:18:14: 教師あり学習ですね今回見ていきます 00:18:14 - 00:18:16: で教師あり学習なんですけれども 00:18:16 - 00:18:19: タスクが2つに分かれますで2つ書きます 00:18:32 - 00:18:37: 回帰と分類この2つに分かれます 00:18:37 - 00:18:42: でこれ違いなんですが 00:18:42 - 00:18:44: まず回帰は 00:18:44 - 00:18:46: 数値の予測です 00:18:46 - 00:18:47: 株価だったり 00:18:47 - 00:18:49: イントロダクションでお話しした家賃だっ 00:18:49 - 00:18:55: たりこういったものですね 00:18:55 - 00:18:59: て分類これカテゴリ分けです 00:19:00 - 00:19:04: 分類したクラス数だったりとかカテゴリに 00:19:04 - 00:19:05: 分けたりとか 00:19:05 - 00:19:09: 猫だとか犬だとかこういったもの 02:59:39 - 02:59:43: でそれぞれ 00:19:18 - 00:19:20: 回帰では 00:19:20 - 00:19:22: 連続値 00:19:22 - 00:19:23: 数値ですね 00:19:23 - 00:19:25: 株価だったり家賃だったりこういった連続 00:19:25 - 00:19:36: 値を求めますけども分類では 00:19:36 - 00:19:38: リサーチカテゴリーとかこういったもの 00:19:38 - 00:19:41: ですねを求めますと 03:26:17 - 03:26:19: いうことですね 00:19:44 - 00:19:46: でこのうちの 00:19:46 - 00:19:48: 回帰についてちょっと見ていこうと思い 00:20:03 - 00:20:06: で今から私ここに大きな 00:20:06 - 00:20:09: 図を書いていこうと思うので皆さんも一緒 00:20:09 - 00:20:57: に書いてみてください 00:20:57 - 00:20:59: 丸を線でつないでいってほしいんですが 00:20:59 - 00:21:11: ここはつなげないようにしてください 00:21:11 - 00:21:21: こんな感じですかね 00:21:21 - 00:21:30: ちょっと大きくしておきます 01:09:11 - 01:09:13: でこれ 00:21:33 - 00:21:35: ニューラルネットワークの構造を把握する 00:21:35 - 00:21:40: ためにまずはちょっと図を書いてみました 00:21:40 - 00:21:42: で1つずつ 00:21:42 - 00:21:44: ご紹介するとこれが 00:21:44 - 00:21:46: ニューラルネットワークというものを図で 00:21:46 - 00:21:50: 表したものだと思ってください 00:21:50 - 00:21:53: ニューラルネットワークの構造ですで 00:21:53 - 00:21:58: 丸一つをこれノードと言います 00:21:58 - 00:22:01: 濃度というものこの後実際に実装していく 00:22:01 - 00:22:04: ときにも使う言葉なので 00:22:04 - 00:22:06: 覚えておいてください 00:22:06 - 00:22:10: 濃度と言います 00:22:10 - 00:22:14: でこの最初のノード一つ一つに 00:22:14 - 00:22:15: 入力の 00:22:15 - 00:22:17: 値が入ってくると 00:22:19 - 00:22:22: x1xに 00:22:22 - 00:22:26: X3としておきましょう 00:22:26 - 00:22:31: で一番下がですね1としておいてください 00:22:31 - 00:22:43: これバイアス項というものです 00:22:43 - 00:22:44: ニューラルネットワーク構築すると 00:22:44 - 00:22:46: 勝手についてくるものだと今はそれぐらい 00:22:46 - 00:22:52: の理解で大丈夫です 00:22:52 - 00:22:56: でそれよりも大事なのがですね 02:28:27 - 02:28:28: ここですね 00:23:03 - 00:23:08: この線の上に 00:23:08 - 00:23:09: Wを 00:37:21 - 00:37:26: 書いてあげてください 00:23:18 - 00:23:22: でバイアスのところにはBと 00:23:29 - 00:23:34: これがですねそれぞれ 00:23:37 - 00:23:40: というものですねあのパラメータ 00:23:40 - 00:23:44: 的なことあるかもしれません 00:23:44 - 00:23:47: このダブルとBのことをパラメータと言い 00:23:55 - 00:23:57: これそこまで重要じゃないのでここでは 00:23:57 - 00:24:00: 書きませんがこの1本1本のことを 00:24:00 - 00:24:02: Hって言うんですねでエッジにダブルと 00:24:03 - 00:24:05: いう重みがそれぞれ 00:24:05 - 00:24:08: 割り振られていますこの重みが後々大事に 00:24:08 - 00:24:09: なってくるのでちょっと抑えておいて 00:24:13 - 00:24:17: そしてですね 00:24:17 - 00:24:19: ここ真ん中 00:24:19 - 00:24:22: ここにも割り振っておきましょう 00:24:22 - 00:24:24: ひとまずH1H2と 00:24:24 - 00:24:25: 割り振っておいてください 00:24:25 - 00:24:32: でここまたバイアスコなどで1で結構です 00:24:32 - 00:24:33: で最後はこちら 01:29:28 - 01:29:29: Yと 00:24:40 - 00:24:43: こっちに入力値をここから入れて 00:24:43 - 00:24:47: Yという最後予測を出しているこんな図に 00:24:47 - 00:24:50: なっております 00:24:51 - 00:24:53: 左からデータを流して最後ある一点の数値 00:24:53 - 00:24:56: を予測していると 00:24:56 - 00:25:00: こういったものですね 00:25:00 - 00:25:05: でこの構造のこと 00:25:05 - 00:25:07: 全結合層と 00:25:21 - 00:25:22: これは 00:25:22 - 00:25:24: 後ほど実装する際にもよく出てくる言葉な 00:25:25 - 00:25:28: ぜひ覚えておいてください 00:25:28 - 00:25:31: でここで前結合相当 00:25:31 - 00:25:33: いうものが出ました 00:25:33 - 00:25:36: 実はこのニューラルネットワークの構造 00:25:36 - 00:25:40: ってそうになってるんですね 00:25:40 - 00:25:43: で最初少し言いましたヌディープラーニン 00:25:43 - 00:25:45: グってニューラルネットワークのこのソー 00:25:45 - 00:25:47: がたくさんあるものと 00:25:48 - 00:25:50: いうふうにお伝えしました 00:25:50 - 00:25:52: なのでここの層がたくさんあるものが 00:25:52 - 00:25:54: ディープラーニングだと思っていただけれ 00:25:54 - 00:25:56: ばいいかなと思います 00:25:56 - 00:25:57: でそれぞれ層にも 00:25:57 - 00:26:21: 名前があるのでこれもご紹介しておきます 00:26:26 - 00:26:29: 最初のそう 00:26:29 - 00:26:38: これ入力そうです 00:26:38 - 00:26:39: で続いて 00:26:39 - 00:26:47: 真ん中ですね 00:26:47 - 00:26:50: これ中間層です 00:26:50 - 00:26:58: で中華そうなんですが 00:26:58 - 00:27:00: 隠れそうと 00:27:00 - 00:27:08: 言ったりもしますでこの隠れ層が 00:27:08 - 00:27:10: 英語で言うとhddenレイヤーなので 00:27:12 - 00:27:13: Hをとって 00:27:13 - 00:27:15: 先ほどここhyh2と 00:27:15 - 00:27:18: 置いたというところですね 00:27:24 - 00:27:28: 出力層です 00:27:28 - 00:27:31: 理想の際にもこのお名前結構出てくるので 00:27:31 - 00:27:34: 入力層中間層出力ソートというところも 00:27:34 - 00:27:41: 押さえておくようにしましょう 02:59:50 - 02:59:53: でですね 00:27:43 - 00:27:46: 例えば今回回帰の場合あの家賃予測でもう 00:27:46 - 00:27:49: 一度考えていこうかなと思うんですが 00:27:49 - 00:27:51: 具体的にじゃあこのニューラル 00:27:51 - 00:27:52: ネットワークどう使っていくのかという 00:27:52 - 00:27:56: ところですねで家賃予測の場合 00:28:00 - 00:28:07: Hの1に 00:28:07 - 00:28:10: Hって言いましたねXですね 00:28:10 - 00:28:13: Xの12 00:28:13 - 00:28:15: 部屋の広さが入ったり 00:28:15 - 00:28:18: Xの2に何でもいいんですが築年数とか 00:28:18 - 00:28:21: ですかね 00:28:21 - 00:28:23: あの人間が予測する時も 00:28:24 - 00:28:26: 家賃を予測するとなっても条件って色々 00:28:26 - 00:28:28: 必要になってきますよね出てたあの条件の 00:28:28 - 00:28:34: 部分です 00:28:34 - 00:28:37: 駅からの距離だったりいろいろ入ってくる 00:28:39 - 00:28:42: ここで入力する 00:28:42 - 00:28:45: これらのことを 00:28:45 - 00:28:48: 入力変数と 00:28:52 - 00:28:56: で例えばじゃあ部屋の広さが20平方 00:28:56 - 00:28:57: メートルです 00:28:57 - 00:28:58: 築年数3年です 00:28:58 - 00:29:02: 駅からの距離3分ですとかこういったもの 00:29:03 - 00:29:05: 値として入れてやると 00:29:05 - 00:29:06: 最後ここで 00:29:06 - 00:29:11: 予測が触れると行われると 00:29:11 - 00:29:14: こういう仕組みになってるんですね 00:29:14 - 00:29:17: で入力変数に対してこちら 00:29:17 - 00:29:26: にもお名前がついております 00:29:30 - 00:29:31: 値ですが 00:29:31 - 00:29:33: 目的変数と 00:29:33 - 00:29:42: こんな風に呼んだりします 02:51:37 - 02:51:47: ここまでよろしいでしょうか 00:29:47 - 00:29:50: でこの後ですね実装をしていく際にパイ 00:29:50 - 00:29:52: トーチというものを使っていくんです 00:29:52 - 00:29:55: けれどもこれパイトーチ使うときにこの 00:29:55 - 00:29:58: 前結合層ですね 00:30:04 - 00:30:06: リニアとこんな風に表します 00:30:06 - 00:30:09: 前結構想を表したいとで 00:30:11 - 00:30:22: NN.リニアで表すんですけれども 00:30:22 - 00:30:24: 今回の 00:30:27 - 00:30:32: 前結合層を表したいときどう書くかと 00:30:32 - 00:30:37: NNドットリニア 00:30:46 - 00:30:48: に1 00:30:48 - 00:30:51: こんな風に表記すると 00:30:51 - 00:30:54: これバイアスは除いた分なんですが3 00:30:54 - 00:30:56: ノードから2濃度になってますという 00:30:56 - 00:30:59: ところでこの上ですねで2濃度から1濃度 00:30:59 - 00:31:01: になってますということでこの下の部分 00:31:01 - 00:31:04: これでこの表記で 00:31:04 - 00:31:06: 今ここに書いた 00:31:06 - 00:31:16: 前結合層を表すことができます 00:31:16 - 00:31:20: で一応ですね今回あの中間層を2つ 00:31:20 - 00:31:23: 二濃度にしてますけれども中間層が 00:31:23 - 00:31:25: 入力層より小さくなきゃいけないという 00:31:25 - 00:31:28: ことはありませんでそうはカスタマイズし 03:00:28 - 03:00:42: ていきます 00:31:32 - 00:31:35: ただですねここが 00:31:35 - 00:31:40: 回帰と分類で変わってきます 00:31:40 - 00:31:42: 会議の場合出力はここ一つなんですねなの 00:31:42 - 00:31:45: でこの大図の通りになります 00:31:45 - 00:31:48: ただ例えば分類で 00:31:48 - 00:31:50: 猫を 00:31:52 - 00:31:54: るある画像を猫取り去るどれかに分類し 00:31:54 - 00:31:55: たいです 00:31:55 - 00:31:58: みたいなことになったらここが3つになっ 00:31:58 - 00:32:01: たりとかってことはあります 00:32:01 - 00:32:04: それは分類と会議の違いと思っていて 00:32:04 - 00:32:07: いただければいいかなと思いますただまあ 00:32:07 - 00:32:09: 全体としてはこの構造をまずは皆さん 00:32:09 - 00:32:10: 押さえてください 00:32:10 - 00:32:14: この構造あの実装する時にもこの構造が 00:32:14 - 00:32:17: 頭で描けてるということは非常に大切に 00:32:17 - 00:32:20: なってきますのでまずはこういう構造に 00:32:20 - 00:32:21: なってるんだなというのを抑えてみて 00:32:24 - 00:32:25: ではここではですねニューラル 00:32:25 - 00:32:28: ネットワークの構造ということで見てき 01:43:57 - 01:43:58: ポイントは 00:32:29 - 00:32:31: 入力されたこの値 00:32:34 - 00:32:38: これがそれぞれの層を通って左から右に 00:32:38 - 00:32:41: 計算をされていきます 00:32:41 - 00:32:43: で計算されて予測値が出るというところ 02:26:21 - 02:26:22: ですね 00:32:46 - 00:32:48: この後の実装のためにこの構造はしっかり 00:32:48 - 00:32:51: と押さえておくようにしましょう 00:32:51 - 00:32:54: で今 00:32:54 - 00:32:56: 左から右に計算されていくと言いました 00:32:56 - 00:32:59: じゃあその計算どういうふうに行われて 00:32:59 - 00:33:01: いるのというの 00:33:01 - 00:33:05: この後見ていきたいと思います 00:33:05 - 00:33:29: ページを書いていきますね 00:33:29 - 00:33:37: ニューラルネットワーク内の計算と 00:33:37 - 00:33:39: でまずこんな計算するんですよっていうの 00:33:40 - 00:33:43: 3つ書きますので 00:33:43 - 00:34:50: 皆さんも一緒に書いてみてください 00:34:50 - 00:34:54: ちょっと書く分量多いんですけれども 00:34:54 - 00:35:06: ステップ3まで描いてみましょう 00:35:06 - 00:35:09: はいでこの後ちょっとわかりやすくする 00:35:09 - 00:35:13: ためにですね私色分けをしておきますもし 00:35:13 - 00:35:14: 皆さんもペンあったら 00:35:14 - 00:35:17: 色分けをしてみるとわかりやすいと思い 00:35:18 - 00:35:20: ステップ1を青にしましょうかね 00:35:20 - 00:35:23: ステップ2がじゃあピンク 00:35:23 - 00:35:25: ステップ3は 00:35:25 - 00:35:30: 黄色にしておきましょう 00:35:30 - 00:35:32: ステップ1ステップにとステップ3を 00:35:32 - 00:35:34: 書いております 02:10:57 - 02:10:59: さあここからはですね 00:35:36 - 00:35:39: ニューラルネットワーク内の計算には 00:35:39 - 00:35:42: どんな種類があってどんな順序で進んで 00:35:42 - 00:35:47: いくのかというのを紹介したいと思います 00:35:48 - 00:35:50: 毎度毎度になりますがもう1回連結構想を 00:35:50 - 00:35:52: 書いていこうと思いますあのバイアスは 00:35:52 - 00:35:55: 抜きで結構ですので321の 00:35:55 - 00:36:18: 連結構想を書いてみましょう 00:36:18 - 00:36:23: それぞれつなげてやってください 00:36:23 - 00:36:24: で一つここにも 00:36:24 - 00:36:25: 丸を 01:59:03 - 01:59:05: 書いておきます 00:36:36 - 00:36:40: でこの前結合層の中にですねさっき 00:36:40 - 00:36:42: 割り振った色を 00:36:42 - 00:36:45: 書いていきたいと思いますまずここが青 00:36:45 - 00:36:49: ここも青 00:36:49 - 00:36:50: でこのノードの中に 00:36:53 - 00:36:56: ピンクと 00:36:56 - 00:37:01: で最後黄色は 00:37:01 - 00:37:05: ちょっと見にくいですね 00:37:05 - 00:37:07: 黄色の色をもうちょっと 00:37:07 - 00:37:19: 濃くしましょうか 00:37:19 - 00:37:21: ここにワイとTと 00:37:26 - 00:37:30: これYは 00:37:30 - 00:37:35: 予測値ですね 00:37:39 - 00:37:43: 目標値ですね 00:37:43 - 00:37:46: 家賃の予測っていうと 00:37:49 - 00:37:52: 20平方メートルならってこう決まってた 00:37:52 - 00:37:55: 答えとなる値です教師のデータですね 00:37:55 - 00:37:56: でも実際 00:37:56 - 00:38:05: 予測した値がこちらですね 00:38:05 - 00:38:07: じゃあ1つずつ見ていきますと 00:38:07 - 00:38:10: ステップ1のこの線形変換 00:38:10 - 00:38:15: これはこの青のここで処理するを行います 00:38:15 - 00:38:17: でこの筆戦形変換 00:38:17 - 00:38:19: はここの 00:38:19 - 00:38:20: ピンクのところ 00:38:20 - 00:38:23: 濃度の中で処理を行っております 00:38:23 - 00:38:29: 最後目的関数の計算これこの黄色です 00:38:29 - 00:38:32: で先ほどもお伝えしました計算は左から右 00:38:32 - 00:38:35: に走るんでした 04:05:05 - 04:05:07: でこの 00:38:37 - 00:38:39: 左から右に走るものこれを 00:38:39 - 00:39:00: 順電波と言います 00:39:00 - 00:39:03: この左から右方向が順電波と 00:39:03 - 00:39:14: と言いますでそれ対してですね 00:39:14 - 00:39:16: 逆方向これ逆伝播と 00:39:16 - 00:39:19: 言いますそれぞれあの10連覇で何して 00:39:19 - 00:39:20: いくのか 00:39:20 - 00:39:22: 逆電波で何していくのかっていうのはね 00:39:22 - 00:39:25: 後ほどまた詳しくご紹介するんですけれど 00:39:26 - 00:39:29: まずはこの章で 00:39:29 - 00:39:32: 押さえていきたいことこれがですね 00:39:32 - 00:39:34: 線形変換とか 00:39:34 - 00:39:35: 非政権変化とか 00:39:35 - 00:39:37: 目的関数の研鑽っていうのまずはしてるん 00:39:37 - 00:39:39: だとでこっち向きの 00:39:39 - 00:39:43: 矢印これ順電波で逆方向が逆伝播というん 00:39:43 - 00:39:46: だなとここを押さえておいていただければ 03:29:23 - 03:29:25: と思います 00:39:48 - 00:39:54: でもう一つ重要なことを言います 00:39:54 - 00:39:56: ニューラルネットワークなんですけど 00:39:56 - 00:39:59: モデルを作る最大の目的はここの 00:40:00 - 00:40:01: ステップさんの目的関数の部分にあるん 00:40:04 - 00:40:06: っていうのもニュラルネットワーク何をし 00:40:06 - 00:40:07: たいか 00:40:07 - 00:40:10: あの家賃の例で考えていただきたいと思う 03:51:52 - 03:51:59: んですが 00:40:12 - 00:40:15: もともとの教師データ目標値が20だった 01:23:44 - 01:23:49: 予測値が 00:40:18 - 00:40:20: 例えば30度出てしまいました 00:40:20 - 00:40:23: もともと20で 00:40:23 - 00:40:26: 予測値が30度出てしまったここの10 00:40:26 - 00:40:28: っていう誤差 00:40:28 - 00:40:30: ちっちゃくしたいんですね 00:40:30 - 00:40:34: ここをどんどんどんどん最小化したい最初 00:40:34 - 00:40:38: 実際値にしていきたいそのためにあの前の 00:40:38 - 00:40:38: ページで 00:40:38 - 00:40:41: Wがここに重みが乗ってるという話をし 00:40:41 - 00:40:44: ましたけれどもこの 00:40:44 - 00:40:46: Wを調整していくんです 00:40:46 - 00:40:49: 何度も順電波逆伝播というこの 00:40:49 - 00:40:53: 計算を繰り返してでこの誤差をちっちゃく 00:40:53 - 00:40:54: していく 00:40:54 - 00:40:56: でそのために最適化される値っていうのが 00:40:56 - 00:41:02: このダブルなんですね 00:41:02 - 00:41:05: ちょっとこのイメージを持って 00:41:05 - 00:41:07: ニュラルネットワークのこの計算それぞれ 00:41:07 - 00:41:10: 中見ていこうと思います 00:41:10 - 00:41:12: では実際に 00:41:12 - 00:41:14: 線形変換から見ていこうと思います 00:41:14 - 00:41:17: 線形変換どういった計算が行われているの 00:41:17 - 00:41:18: かと 00:41:18 - 00:41:22: で先ほども書いていたこの図ですね 00:41:22 - 00:41:25: にちょっとバイアスコを足してで計算の 00:41:25 - 00:41:27: 都合上XとUという文字を振っております 00:41:27 - 00:41:30: でこれを使って中身の計算を見ていきたい 00:41:30 - 00:41:34: と思いますでこの計算に必要になってくる 00:44:13 - 00:44:14: のが 00:41:36 - 00:41:38: パラメータというやつですが必要なので 00:41:38 - 00:41:40: ちょっとこれパラメーターを割り振りたい 00:41:43 - 00:41:46: ちょっと複雑になるんですがまずこの1本 00:41:47 - 00:41:51: これダブルの11です 00:41:51 - 00:41:56: でX1からU2に出てるものこれダブルの 00:41:56 - 00:42:02: 21と書いてください 00:42:02 - 00:42:05: で今度こちら 00:42:05 - 00:42:08: xの2からUの1に出る部分ですねこれ 00:42:08 - 00:42:12: ダブル12 00:42:13 - 00:42:16: いうの2に出てる方 00:42:16 - 00:42:21: これがW22と 00:42:21 - 00:42:24: でx3からUの1に出てるこちらの部分 00:42:29 - 00:42:31: ダブルの 00:42:31 - 00:42:33: 13ですかね 00:42:33 - 00:42:38: で下がダブルの23 00:42:38 - 00:42:40: ちょっとたくさんになってきましたが 00:42:40 - 00:42:42: 要はこれがダブル11 00:42:43 - 00:42:47: W12W22と 00:42:47 - 00:42:52: それぞれ重みが乗っていたんでした 00:42:52 - 00:42:57: ちょっと色変えてバイアス湖にも 00:42:57 - 00:43:01: 載せたいのでバイアスコが 00:43:01 - 00:43:03: B1と 00:43:03 - 00:43:06: B2と 00:43:06 - 00:43:09: それぞれあの見にくいのでちょっとかぶっ 00:43:09 - 00:43:10: てしまうので 00:43:10 - 00:43:13: 線を引いてますがそれぞれこの上にこの 00:43:13 - 00:43:14: ダブルの11とか 00:43:14 - 00:43:16: W21が乗ってるイメージだと思って 00:43:19 - 00:43:21: それぞれのエッジの上に乗っているとそう 00:43:21 - 00:43:23: いうイメージですね 00:43:23 - 00:43:25: はいこれを使ってじゃあ計算を書いていき 00:44:09 - 00:44:10: 各量がちょっと多くなってきますけれども 00:44:10 - 00:44:13: なんとなく皆さん何をやってるかっていう 00:44:14 - 00:44:19: お分かりいただけたかなと思います 00:44:19 - 00:44:20: これ要は 00:44:20 - 00:44:23: データと 00:44:23 - 00:44:25: 重みを 00:44:25 - 00:44:25: 単純に 00:44:25 - 00:44:28: 掛け合わせてるんですねで書きましたもの 00:44:28 - 00:44:33: を足してるだけ 00:44:33 - 00:44:35: なのでここの図で言うと 00:44:38 - 00:44:39: XとW1 00:44:39 - 00:44:41: X1とWH11 00:44:43 - 00:44:49: X2とダブルの1に 00:44:49 - 00:44:51: これがなので11にこのつながっている 01:02:29 - 01:02:30: これですね 00:44:56 - 00:44:58: X1とW1をかけ押して 00:44:58 - 00:45:01: X2とダブルの位置にを掛け合わせてそれ 00:45:01 - 00:45:03: をそれぞれ全部足したらこの 00:45:03 - 00:45:08: U1になるよというにも同様ですよと 00:45:08 - 00:45:10: データと重みを単純に掛け合わせて足し 00:45:10 - 00:45:11: てるだけです 00:45:11 - 00:45:16: なのでここの値を出したかったらそれぞれ 00:45:16 - 00:45:19: データと重みをかけて出していると 00:45:19 - 00:45:20: 単純にそういう 00:45:20 - 00:45:22: 式になっております 00:45:22 - 00:45:28: で実はこれあのベクトルの式にこんな 00:45:28 - 00:45:34: 風に表せるのはわかるでしょうか 00:45:34 - 00:45:39: ベクトル行列の計算式こんな風に 00:45:39 - 00:45:50: 表すことができますと 00:45:50 - 00:45:53: これは行列の計算をご存知の方は 00:45:53 - 00:45:55: 理解しやすいかなと 00:46:02 - 00:46:12: 書き換えてるだけなんですけれども 00:46:12 - 00:46:15: こんな感じですね 00:46:15 - 00:46:18: この式を行列の計算にまとめるとこんな風 00:46:18 - 00:46:20: になりますと行列の計算っていうのは 00:46:20 - 00:46:23: 行ける列をしていくので 00:46:23 - 00:46:29: ダブル11X1×とで多数W12x2で 00:46:29 - 00:46:34: WH3x3で足すB1というところを表現 00:46:34 - 00:46:36: しているだけなんですねそれがああいう1 00:46:36 - 00:46:38: になるよと 00:46:38 - 00:46:41: でまとめたらまあこんな風に書けますよと 00:46:41 - 00:46:45: でこれをさらに 00:46:45 - 00:46:47: じゃあ書き換えたら 02:22:58 - 02:23:00: こんな風に 00:46:52 - 00:46:55: 書いたらなんですけど 00:46:55 - 00:47:04: こうまとめることはできないでしょうかと 00:47:04 - 00:47:06: これを大きな 00:47:06 - 00:47:09: ダブルと大文字のWで表して大文字のXで 00:47:09 - 00:47:12: 表してでおもちゃ 00:47:12 - 00:47:14: 太字ですね太字のBで 00:47:14 - 00:47:16: 表して 00:47:16 - 00:47:19: で2つのUで表しているだけですちょっと 00:47:19 - 00:47:21: また書き換えたんですけどこういう 00:47:21 - 00:47:24: WxBとこんな感じに書き換えましたで 00:47:24 - 00:47:29: なんでこんなことをしたかっていうと 00:47:29 - 00:47:32: これってなんか見覚えのある 00:47:32 - 00:47:35: 式じゃないでしょうか 00:47:35 - 00:47:38: 皆さんあの中学生の時のとかってこういう 00:47:40 - 00:47:44: +bかこういう1次関数の式 00:47:44 - 00:47:47: 習いましたよね 00:47:48 - 00:47:51: 思ってじゃあこの1次関数の式ってどう 00:47:51 - 00:47:53: だったかっていうとあのグラフ書いたら 00:47:53 - 00:48:00: こんなんじゃなかったですけ 00:48:00 - 00:48:06: でこれがy=x+bってここがあの切片な 00:48:06 - 00:48:09: んだよってここがBなんだよっていうそう 00:48:09 - 00:48:10: いうのを覚えていらっしゃいますでしょう 00:48:10 - 00:48:16: かこっちこれがXとYで 00:48:16 - 00:48:19: でなんでこんなことするかっていうとここ 00:48:19 - 00:48:20: で種明かしですね 00:48:20 - 00:48:22: 線形変換と言いました 00:48:22 - 00:48:26: 線形なんですよね1000 00:48:26 - 00:48:29: Kつまりこういった式だから 00:48:31 - 00:48:34: 直線で表すことができると 00:48:34 - 00:48:38: いう式なんですなのでこのYこれx+b 00:48:38 - 00:48:40: から見てもこの 00:48:40 - 00:48:43: 直線で表せるというところで線形変換と 00:48:43 - 00:48:45: いう名前がついてますよと 00:48:45 - 00:48:47: でややこしい複雑な 00:48:47 - 00:48:49: 計算をしているように見えたんですが 00:48:49 - 00:48:52: 要はこの線形の 00:48:52 - 00:48:55: ここの式を出したいと 00:48:55 - 00:48:58: これを大出しのこの線形変換というものだ 00:48:58 - 00:49:02: と思っていただければいいかなと思います 00:49:02 - 00:49:03: まずは線形変換の 00:49:03 - 00:49:05: 計算の中身を見ました 00:49:05 - 00:49:10: ポイントはこのU1の値を出したいという 00:49:10 - 00:49:13: にはまずは 00:49:13 - 00:49:15: 入力値Xそして 00:49:15 - 00:49:18: Wのこの重みをそれぞれかけてでそれぞれ 00:49:18 - 00:49:20: 足し合わせていくバイアスまで足し合わせ 00:49:20 - 00:49:22: ていく 00:49:22 - 00:49:25: でなぜ線形変換っていうのかっていう理由 00:49:25 - 00:49:27: はこの式をちょっと変形をしていったら 00:49:27 - 00:49:29: その答えがわかります 00:49:29 - 00:49:31: 実は私たちが 00:49:31 - 00:49:33: 慣れ親しんでいたy=x+bと同じ形なん 00:49:33 - 00:49:36: ですよでaX 00:49:36 - 00:49:37: +bが 00:49:37 - 00:49:40: こういったグラフで表せたように 00:49:40 - 00:49:42: 線で直線で表せることからこれ線形変換と 00:49:42 - 00:49:44: いうんですよと 00:49:44 - 00:49:47: というお話でした 00:49:47 - 00:49:50: じゃあ続いて選挙変換終わったので非線形 00:49:50 - 00:50:13: 変換を見ていきたいと思います 00:50:13 - 00:50:16: 非線形変換がこれですねここで行うもの 00:50:21 - 00:50:25: なのでピンクで表しておきましょう 00:50:25 - 00:50:28: で非線形変換これ何をしてるか 00:50:28 - 00:50:30: 線形変化はの直線で表すことができたん 01:51:23 - 01:51:24: ですが 00:50:31 - 00:50:34: 非線形ですから 00:50:34 - 00:50:36: 直線ではないんですよね 00:50:36 - 00:50:57: こんな風に書いておきます 00:50:57 - 00:50:58: データに対する 00:50:58 - 00:51:03: モデルの表現力を高めるもの 00:51:03 - 00:51:07: 今まだ線形でしか 00:51:07 - 00:51:11: 線形でしかデータを表してないわけです 00:51:12 - 00:51:14: 線形で表すって言ったらちょっと限界が 00:51:14 - 00:51:16: あるんですよねちょっとこれグラフで書い 00:51:16 - 00:51:28: てみるとわかりやすいかもしれません 00:51:28 - 00:51:30: でここにじゃあ 00:51:30 - 00:51:32: データがまあ適当に 00:51:32 - 00:51:40: たくさんプロットしておきますが 00:51:40 - 00:51:43: たくさんそもそも 00:51:43 - 00:51:45: X1が 00:51:45 - 00:51:49: 入力値として 00:51:49 - 00:51:56: あったとします 00:51:56 - 00:51:59: でさっきの 00:52:03 - 00:52:04: 線形だと 00:52:04 - 00:52:08: 例えばですね 03:07:57 - 03:07:58: こんな感じで 00:52:13 - 00:52:16: かけるとしましょう 01:25:09 - 01:25:10: で一方で 00:52:17 - 00:52:25: 非線形だとどんなことができるかと 00:52:26 - 00:52:28: 散らばったデータ 00:52:28 - 00:52:31: もう非線形であればそのをデータの上を 00:52:31 - 00:52:41: 通ることができるんですよね 00:52:41 - 00:52:43: つまりこの 00:52:43 - 00:52:46: データをより良く表してくれるのが非線形 00:52:46 - 00:52:50: で線形は先ほどの計算線形しましたけれど 00:52:53 - 00:52:55: 直線ですからこういう散らばったデータを 00:52:55 - 00:52:58: もう全部こうあの 00:52:58 - 00:53:01: しっかり表現するっていうのは 00:53:01 - 00:53:03: 結構限界がありそうですよね 00:53:03 - 00:53:05: なのでこの 00:53:05 - 00:53:07: 表現力の高い非線形っていうのを 00:53:07 - 00:53:10: 線形変換した後に用いるこれがニューラル 00:53:10 - 00:53:12: ネットワーク内で行われている最初の方の 00:53:12 - 00:53:15: 計算です 00:53:16 - 00:53:20: さっきノートを書きました 00:53:20 - 00:53:22: ここですねこのごちゃごちゃしてるところ 00:53:22 - 00:53:24: ここだけちょっと鳥出していきたいと思い 00:53:28 - 00:53:32: 大きな丸を書いておきましょう 00:53:32 - 00:53:35: でここをエッジがこう伸びているわけです 00:53:41 - 00:53:45: U1と書いてました 00:53:47 - 00:53:51: H1と 00:53:51 - 00:53:58: 書きますでこれ何をしたいかというと 00:53:58 - 00:54:00: U1から 00:54:00 - 00:54:01: H1に 00:54:01 - 00:54:03: 変えたいんですね 00:54:05 - 00:54:08: さっき出したU1をこの線形変換で出した 00:54:08 - 00:54:10: ものでしたから 00:54:10 - 00:54:11: 非線形変換を行って 00:54:11 - 00:54:14: H1に変えたいです 00:54:14 - 00:54:18: でここで非線形変化を行うんですけれども 00:54:18 - 00:54:21: 線形変換のために 00:54:21 - 00:54:23: 行うために 00:54:23 - 00:54:39: 使う関数がございますこの関数を 00:54:39 - 00:54:41: 活性化関数と 01:47:00 - 01:47:04: こんな風に言います 00:54:47 - 00:54:50: 非線形変換を行ってくれる関数のこと 00:54:50 - 00:54:53: 活性化関数と言いますでこの活性化ガスに 00:54:54 - 00:54:56: 種類があるんですねでそれをちょっとこの 00:54:56 - 00:54:58: 後ご紹介していきますただここで押さえて 00:54:58 - 00:55:01: おいて欲しいのはまず非線形変換 00:55:01 - 00:55:05: で今までやったこの線形変化 00:55:05 - 00:55:08: でこれそもそも元をたどるとやっていたの 00:55:08 - 00:55:10: はステップ1ステップ2なんですね 00:55:10 - 00:55:12: ニューラルネットワーク内の計算でこれ純 00:55:12 - 00:55:14: 電波で計算をしていくわけですけれども 00:55:14 - 00:55:17: 最初まずこの順番で 00:55:17 - 00:55:21: 線形を行って非線形を行うとで線形って 00:55:21 - 00:55:22: いうのはこの 00:55:22 - 00:55:27: 直線で表すものに式はこんな感じでしたと 00:55:27 - 00:55:30: 線形でこのU1位という2が求まった後 00:55:30 - 00:55:33: その後非線形変換というのを行いますで 00:55:33 - 00:55:36: これでデータに対するモデルの表現力を 00:55:36 - 00:55:39: 高めたいとで非線形変化を行ってくれる 00:55:39 - 00:55:42: 関数がこの活性化関数というものです 00:55:42 - 00:55:45: でここからはこの活性化関数の中身どう 00:55:45 - 00:55:47: いったものがあるのかのご紹介をしていき 02:29:18 - 02:29:20: たいと思います 00:55:50 - 00:55:52: ではここから 00:55:52 - 00:55:55: 非線形変換を行う活性化関数をいろいろ見 00:55:55 - 00:55:58: ていきたいと思いますまず1つ目がこちら 00:56:14 - 00:56:15: sigmoid関数というものです 00:56:15 - 00:56:32: ちょっと式を書いていきたいと思います 00:56:32 - 00:56:36: このシグモイド関数ですが1+ 00:56:36 - 00:56:39: エクスポーネンシャルの 00:56:39 - 00:56:41: -U分の1となかなかちょっとややこしい 00:56:41 - 00:56:44: 意識で表されるんですが 00:56:44 - 00:57:05: グラフで書いてみるとこんな感じ 00:57:05 - 00:57:08: 位置が0から1を取るような 00:57:08 - 00:57:10: 形ですね 00:57:10 - 00:57:13: でこのシグマイド関数がその 00:57:13 - 00:57:16: 非線形変換を行う活性化関数もひとつなん 00:57:16 - 00:57:20: ですであのご紹介はしたんですがこういっ 00:57:20 - 00:57:21: たものがあるというご紹介はしたんですが 00:57:21 - 00:57:24: 実は今中間層の計算で 00:57:24 - 00:57:28: ほとんどを使われていないんですね 00:57:29 - 00:57:31: 活性化関数の1つとしてはご紹介はするん 00:57:31 - 00:57:34: ですけれどもこれは今はあんまり使われて 00:57:34 - 00:57:38: いませんっていうのもこういう問題がある 00:57:55 - 00:57:57: 購買消失問題と 00:57:57 - 00:57:59: 勾配っていうのは 00:57:59 - 00:58:04: 微分した値です 00:58:04 - 00:58:09: 微分した値でこの勾配何に使うかというと 00:58:11 - 00:58:15: 前のページでですね 00:58:15 - 00:58:16: パラメーターの 00:58:16 - 00:58:19: パラメーターをどんどん最適化していく 00:58:19 - 00:58:22: そのお話があったかと思います 00:58:22 - 00:58:24: どんどんどんどんワイとT 00:58:24 - 00:58:27: 家賃ですよね家賃の予測したものと元々の 00:58:27 - 00:58:29: 教師データ 00:58:29 - 00:58:31: 値の差を縮めていきたいこれをどんどん 00:58:31 - 00:58:34: 小さくしたいそのためにパラメーターを 00:58:34 - 00:58:37: 最適化していくでパラメータ最適化のため 00:58:37 - 00:58:39: にはパラメーターを更新するパラメータを 00:58:39 - 00:58:41: どんどん更新していくっていう作業がある 00:58:41 - 00:58:44: んですねでこのパラメーターの更新に使う 00:58:44 - 00:58:49: のがこの微分したこの勾配なんです 00:58:49 - 00:58:51: この勾配をどんどんどんどんかけていく 00:58:51 - 00:58:54: ことでパラメーターがよりいい値になって 03:29:11 - 03:29:14: いきます 00:58:56 - 00:58:58: ただこの 00:58:58 - 00:58:59: 勾配が 00:58:59 - 00:59:01: シグマイド関数を使ってしまうと 00:59:01 - 00:59:03: 消失する恐れがあると 00:59:03 - 00:59:07: だからこそあんまり今では使われない関数 00:59:07 - 00:59:09: 昔は使われてたんですが今では使われたい 00:59:09 - 00:59:11: 関数と 00:59:11 - 00:59:13: 試しにちょっとこの 00:59:13 - 00:59:16: FUこれですねこれを 00:59:16 - 00:59:19: 微分して 00:59:19 - 00:59:20: みたいと思います 01:04:16 - 01:04:17: 微分すると 00:59:22 - 00:59:29: こういう式になるんですね 00:59:29 - 00:59:33: でまた指揮者ちょっとわかりにくいので 00:59:33 - 00:59:45: グラフで表してみます 00:59:45 - 00:59:56: するとこんなグラフになります 00:59:56 - 00:59:59: これこのグラフから何が 00:59:59 - 01:00:02: 言いたいかというと最大でもこの 01:00:02 - 01:00:04: Fが取る値っていうのは 01:00:04 - 01:00:10: 0.25なんですね 01:00:10 - 01:00:13: 優が0の時に0.25 01:00:13 - 01:00:15: 取ると 01:00:15 - 01:00:17: でパラメーターの更新っていうのはこの 01:00:17 - 01:00:19: 勾配をどんどんどんどんかけていくわけ 01:00:19 - 01:00:22: ですこの微分したものをどんどんどんどん 01:00:22 - 01:00:24: かけていくわけですなので最大でも 01:00:24 - 01:00:26: 0.25ということは 01:00:26 - 01:00:29: 0.25もう仮に最大の0.25という 01:00:29 - 01:00:30: ことで 01:00:30 - 01:00:32: 0.250.25と 01:00:32 - 01:00:35: かけていくとどんどんどんどん小さな値 01:00:35 - 01:00:37: つまり0に近づいていくのがお分かり 01:00:37 - 01:00:40: いただけると思いますつまり 01:00:40 - 01:00:43: 勾配が消えるつまりパラメーターの更新が 01:00:43 - 01:00:44: できなくなる 01:00:44 - 01:00:47: でニューラルネットワークで最終的にやり 01:00:49 - 01:00:51: 目的関数で 01:00:51 - 01:00:53: 誤差をどんどん縮めていくことでしたで 01:00:53 - 01:00:55: 目的関数のこの誤差を縮めるために 01:00:55 - 01:00:57: パラメータを更新する必要がありましたよ 01:00:59 - 01:01:01: 購買が消失しちゃうとパラメータ更新でき 01:01:01 - 01:01:02: ないんです 01:01:02 - 01:01:05: だからこそこのシグマイド関数っていうの 01:01:05 - 01:01:07: は今はあんまり採用されてないとただあの 01:01:07 - 01:01:09: これまで使われてきた方法でもあるので 01:01:09 - 01:01:13: ちょっとご紹介をさせていただきました 02:30:40 - 02:30:43: でじゃあ 01:01:15 - 01:01:17: 使わないものを教えられてもというところ 01:01:17 - 01:01:20: はあると思うので今 01:01:20 - 01:01:21: 主に使われているものをご紹介していき 01:01:45 - 01:01:47: はいこちらですね 01:01:48 - 01:01:50: 非線形変換を行う活性化関数の2つ目です 01:01:53 - 01:01:57: レル関数と 01:01:57 - 01:02:00: というものがございます 01:02:00 - 01:02:29: これもうちょっと式を書いていきます 01:02:30 - 01:02:33: MAXっていうのはこれ大きい方どちらか 01:02:33 - 01:02:34: 大きい方を 01:02:34 - 01:02:41: 採用してくださいという意味です 01:02:41 - 01:02:45: でこの場合 01:02:45 - 01:02:47: 0の方が大きければ 01:02:47 - 01:02:51: 0を採用してでUの方が大きければいいを 01:02:51 - 01:03:02: 採用するということになります 01:03:02 - 01:03:05: でこれもですねちょっと式で見て 01:03:05 - 01:03:58: グラフで見ていこうと思います 01:03:58 - 01:04:06: こんな形になりますね 01:04:06 - 01:04:09: でさっき 01:04:09 - 01:04:13: 購買のお話がありました今回どうなのかと 01:04:13 - 01:04:16: 微分してみます 01:04:17 - 01:04:21: 0と1と 01:04:21 - 01:04:25: こんな風になるかと思いますこれあのUと 01:04:25 - 01:04:28: 0を比べて 01:04:28 - 01:04:30: 大きい方を採用しますので 01:04:30 - 01:04:33: 0の方が大きいのかああいうのが大きいの 01:04:33 - 01:04:36: かで取る値は変わってくるわけですが 01:04:36 - 01:04:42: これここ見ていただくと 01:04:42 - 01:04:45: 微分したら1になってるんですね 03:20:43 - 03:20:45: なので 01:04:49 - 01:04:55: 購買が 01:04:55 - 01:05:00: 安定していると 01:05:00 - 01:05:04: さっきマックスでも0.25しか 01:05:04 - 01:05:07: 購買取らなかったでこれをかけていったら 01:05:07 - 01:05:09: どんどん購買焼失してしまうよねと 01:05:09 - 01:05:11: 言ってたところを 01:05:11 - 01:05:13: レール関数使えば 01:05:13 - 01:05:15: 購買が1と 03:22:49 - 03:22:50: ということで 01:05:16 - 01:05:18: 安定してるんですね 01:05:21 - 01:05:24: このレール関数っていうのは今かなり使わ 01:05:24 - 01:05:25: れていると 01:05:25 - 01:05:27: いう側面があります 01:05:27 - 01:05:31: これがレール関数というものです 01:05:31 - 01:05:33: ディープラーニングが一躍あの注目を 01:05:33 - 01:05:36: 浴びるようになった 01:05:36 - 01:05:40: 理由の1つとしてこのレール関数が 01:05:40 - 01:05:42: 登場したというのが一つあるんですけれど 01:05:44 - 01:05:46: 微分しても購買が行って購買が消失しない 01:05:46 - 01:05:49: というところで今はこのレール関数が使わ 01:05:49 - 01:05:52: れることが多いです 01:05:52 - 01:05:55: でもう一つですね 01:05:56 - 01:05:59: 活性化関数なんですがこれまで見てきたの 01:05:59 - 01:06:01: は中間層で使われる活性化関数でしたが 01:06:01 - 01:06:05: 今度は分類の出力層で 01:06:05 - 01:06:22: 使われるものを見ていきたいと思います 01:06:22 - 01:06:33: これは今までの中間層ではなく 01:06:33 - 01:06:37: 分類の出力層で使われます 01:06:37 - 01:06:40: でまずこちらも最初に一応 01:06:40 - 01:06:42: 式は書いておきますがちょっとややこしい 01:07:03 - 01:07:05: なかなかちょっとややこしい 01:07:06 - 01:07:09: シグもシグマかなんかが出てきています 01:07:09 - 01:07:11: けれどもちょっとこれもですね図を見て 01:07:11 - 01:07:13: いただいた方がわかりやすいので 01:07:13 - 01:07:19: 図を書いていきますね 01:07:19 - 01:07:41: 出力層なのであの最後の部分です 01:07:44 - 01:07:47: 2.01.5という数値が出てきたとし 01:07:47 - 01:07:49: ますこれあの分類なので 01:07:49 - 01:07:52: 先ほどの回帰とは違って回帰の時はこの 01:07:52 - 01:07:55: 最後の出力層が一つだったと思いますで 01:07:55 - 01:07:58: 予測の数値が出てきたと思いますが 01:07:58 - 01:08:01: 分類の場合はカテゴリーを予測するという 01:08:01 - 01:08:04: ものがあったと思いますなのでAとBAに 01:08:04 - 01:08:07: ついては2.5Bについては1.5とこう 01:08:07 - 01:08:09: いう数値が出てきたと 01:08:09 - 01:08:14: しますね 01:08:14 - 01:08:16: でこれを 03:23:49 - 03:23:51: 先ほどの 01:08:20 - 01:08:22: この式に 01:08:22 - 01:08:24: 当てはめてソフトマックス関数をかけて 01:08:24 - 01:08:53: やるとするとどうなるか 01:08:53 - 01:09:01: するとこれかけた値が 01:09:01 - 01:09:03: 計算すれば出てくるんですけど 01:09:03 - 01:09:09: 0.622とか0.378 01:09:09 - 01:09:11: 濃い値になるんですね 01:09:13 - 01:09:15: 実は実は 01:09:15 - 01:09:18: 足したら 01:09:18 - 01:09:25: 1になりますね 01:09:25 - 01:09:32: これどういうことかと 01:09:32 - 01:09:35: 実はこの0.622だった0.378って 01:09:35 - 01:09:37: いうのはそれぞれのカテゴリに属する確率 01:09:37 - 01:09:41: を表してるんですねなのでAに属する確率 01:09:43 - 01:09:45: Bに属する 01:09:45 - 01:09:48: 確率は38%そんな 01:09:48 - 01:09:50: 風に出力をしてくれているということに 01:09:50 - 01:09:51: なります 01:09:51 - 01:09:54: なので確率なのでこれ足したら1になると 01:09:54 - 01:09:58: いうことになってます 01:09:58 - 01:10:01: なので2.01.5ではちょっとわかり 01:10:01 - 01:10:03: にくかったところをこのソフトマックス 01:10:03 - 01:10:05: 関数をかけることによって確率に直して 01:10:05 - 01:10:07: くれるそんな便利な関数だと思って 01:10:10 - 01:10:12: 出力される値の 01:10:12 - 01:10:14: 総和を1に正規化してるってそんな言い方 01:10:14 - 01:10:15: もできるんですけれども 01:10:15 - 01:10:18: 要は確実に直してくれる便利な関数だと 01:10:18 - 01:10:21: これよくあの分類の出力層で使うことが 01:10:21 - 01:10:22: 多いのでこれもちょっと覚えておき 01:10:28 - 01:10:31: さあそれではですね今なんかたくさんやっ 01:10:31 - 01:10:35: てきましたねちょっと戻ると今私たち見て 01:10:35 - 01:10:38: きたのはまず線形変換で 01:10:38 - 01:10:40: 直線で表せるんですよというものでしたで 01:10:40 - 01:10:43: も直線だけではデータって十分に 01:10:43 - 01:10:47: 表せませんから今度非線形変換でこういう 01:10:47 - 01:10:49: 非線形変化というものを使って直線だけ 01:10:49 - 01:10:50: じゃなくて 01:10:50 - 01:10:53: 表すために表現力を持たせようというもの 01:10:53 - 01:10:54: をしました 01:10:54 - 01:10:58: で実はここを繰り返すんですね12をこれ 01:10:58 - 01:11:02: 繰り返していくんですでその後 01:11:02 - 01:11:04: 目的関数の計算になります 01:11:04 - 01:11:07: で覚えてらっしゃいますでしょうか 01:11:07 - 01:11:08: ニューラルネットワークでやりたいのは 01:11:08 - 01:11:11: ここの目的関数なんですね 01:11:11 - 01:11:13: 目的関数でこの 01:11:13 - 01:11:15: 求まるこの誤差 01:11:15 - 01:11:17: 家賃が20 01:11:17 - 01:11:19: 予測で出た値は20だけれども 01:11:20 - 01:11:22: 目標値が10だったんですよともともと 01:11:22 - 01:11:24: 与えられてた答えとなるデータは10だっ 01:11:24 - 01:11:27: たんですよこの10という 01:11:27 - 01:11:29: 差をどんどんちっちゃくしていきたいです 01:11:29 - 01:11:32: よというのがニューラルネットワークで 01:11:32 - 01:11:34: やっていきたいことなんですね 01:11:34 - 01:11:36: でこのここを出してまず出してくれるのは 01:11:36 - 01:11:40: この目的関数の計算なので続いて目的完成 01:11:40 - 01:11:45: について見ていこうと思います 01:11:45 - 01:11:47: なかなか皆さんここまで 01:11:47 - 01:11:49: ニューラルネットワークっていうものを 01:11:49 - 01:11:51: ちょっと深く見ていってるんですがいかが 01:11:54 - 01:11:56: 複雑じゃないかと思ってらっしゃる方も 01:11:56 - 01:12:00: 多いと思うんですけれどもなんで今これを 01:12:00 - 01:12:01: 早くこう実装がしたいと思ってらっしゃる 01:12:01 - 01:12:03: 方も多いと思うんですが 01:12:03 - 01:12:07: 実装に入る前に一応理論のところを 01:12:07 - 01:12:09: 押さえておくことが非常に重要なんです 01:12:09 - 01:12:13: ねっていうのも意外と実装でこの後あの 01:12:13 - 01:12:16: パイトーチ使ってやっていくとですねあの 01:12:16 - 01:12:19: 結構簡単にできちゃうんですよ 01:12:19 - 01:12:22: それだけあの機会が裏側でこういった計算 01:12:22 - 01:12:25: とかをしてくれるんですねなので結構 01:12:25 - 01:12:26: 簡単にシンプルにできてしまうので 01:12:26 - 01:12:29: あれこれ何でなんだろうっていう 01:12:29 - 01:12:32: 疑問がそこで生まれてきてしまうと思うん 01:12:32 - 01:12:37: ですねなのでまずここで理論を抑えた上で 01:12:37 - 01:12:39: 実装することでああなるほどこれさっき 01:12:39 - 01:12:42: 言ってたややこしい計算をパッとパイと 01:12:42 - 01:12:43: 違ってくれてるんだなっていうの 03:56:40 - 03:56:41: 簡単に 01:12:45 - 01:12:47: 理解することができるかと思いますので 01:12:47 - 01:12:49: ちょっとこの順番で今させてもらってます 01:12:49 - 01:12:52: なので今ちょっとご理解 01:12:52 - 01:12:54: うーんとなくしかわからないというのでも 01:12:54 - 01:12:56: 全然問題はありませんのでなんとなくで 01:12:56 - 01:12:58: いいのでちょっと掴んでいくというのを 01:12:58 - 01:13:01: やっていきましょう 01:13:01 - 01:13:06: では目的関数今回ですねあの使っていく 02:44:23 - 02:44:24: 目的関数の 01:13:07 - 01:13:10: 損失関数というものでも目的関数と言っ 01:13:10 - 01:13:12: たらもう損失関数コスト関数を表している 01:13:12 - 01:13:17: と思っていただければ結構です 01:13:19 - 01:13:37: 少しお話ししましたが 01:13:37 - 01:13:40: この目的関数でやっていきたいのがこれ 01:13:40 - 01:13:42: 予測値はいいと目標値T 01:13:42 - 01:13:45: 家賃20万円と予測したのがもう目標値 01:13:45 - 01:13:47: もともとは10だったんですよあれ10の 01:13:47 - 01:13:52: 3あるよねこれを最小化する 01:13:52 - 01:13:59: が最小化していきたいんですね 01:13:59 - 01:14:01: でもう一つ 01:14:01 - 01:14:02: 挙式あり学習 01:14:02 - 01:14:04: 回帰と分類というものがありましたこれ 01:14:04 - 01:14:08: あの会議と分類で使う手法が目的関数 01:14:08 - 01:14:34: 異なることが多いです 01:14:34 - 01:14:38: というわけでまず海域の方からちょっと見 01:14:38 - 01:14:59: ていこうかなと思います 01:14:59 - 01:15:01: で会議なんですけれども 01:15:01 - 01:15:16: 皆既で使うこの目的関数がですね 01:15:16 - 01:15:29: 平均25差というものです 01:15:29 - 01:15:32: 英語で言うとミンスクエアードエラーと 01:15:32 - 01:15:35: これ実装の時に使うので書いておきますね 01:15:35 - 01:15:40: MSEということが多いです 01:15:40 - 01:15:49: でこれも一式を書いておきますと 01:15:49 - 01:15:52: こんな風に表せます 01:15:52 - 01:15:55: あの式を見るとねちょっとややこしいなっ 01:15:55 - 01:15:57: てさっきの 01:15:57 - 01:15:59: リール関数とかもそうだったと思うんです 01:16:01 - 01:16:02: 指揮見るとね 01:16:02 - 01:16:05: ぎょっとしてしまいますよねただこれあの 01:16:05 - 01:16:08: グラフでどれも 01:16:08 - 01:16:10: 理解していただくと結構わかりやすい 01:16:10 - 01:16:13: ところが多いのでグラフで書いてみます 01:16:13 - 01:16:17: でこれじゃあどういうことを表してるのか 01:16:17 - 01:16:18: イメージちょっとグラフで書いてみます 01:16:21 - 01:16:22: 本当にそっくりそのまま 01:16:22 - 01:16:24: 表しているわけではないんですがイメージ 01:16:24 - 01:16:25: こういうことをしてい 01:16:25 - 01:16:29: るっていうのもあるわしてみます 01:16:30 - 01:16:33: 横軸がNでで縦軸が 01:16:33 - 01:16:34: TそしてYを 01:16:41 - 01:16:46: まずTについて 01:16:46 - 01:16:49: こんなグラフが書けるとします 01:16:49 - 01:16:51: でTですから 01:16:51 - 01:16:53: 皆さんあのTっていうのはもともと与え 01:16:53 - 01:16:55: られてたデータでしたね 01:16:55 - 01:16:57: もともと与えられてた 01:16:57 - 01:17:00: 教師データでしたなので 01:17:04 - 01:17:07: 家賃で言うじゃあ20平方メートルだっ 01:17:07 - 01:17:10: たら10万円30平方メートルだったら 01:17:10 - 01:17:12: 20万円って元々この決まってたセットの 01:17:12 - 01:17:14: データがあったと思いますがあれが 01:17:14 - 01:17:16: それぞれこうデータちょっとプロットして 01:17:20 - 01:17:25: で一方でじゃあこのYですねY 01:17:25 - 01:17:28: もともとの教師データがこうだったのにも 01:17:29 - 01:17:34: 実際出た予測値データが 01:17:37 - 01:17:39: ずれていた 01:17:40 - 01:17:42: ずれるでしょうと 01:17:42 - 01:17:46: で私たちがこの目的関数これやりたいこと 01:17:46 - 01:17:51: が何かというと 01:17:51 - 01:17:56: ここの 01:17:58 - 01:18:09: 誤差があると思うんですねここ 01:18:09 - 01:18:11: ここをどんどん縮めていきたいんですね 01:18:11 - 01:18:13: これをどんどんゼロに 01:18:13 - 01:18:15: 近づけていきたい 01:18:17 - 01:18:20: 予測値Yでたけれどもこれずれてるわけ 01:18:20 - 01:18:23: ですもともとのこのTからなのでここの 01:18:24 - 01:18:26: グラフできるだけこのTに寄せたいわけ 01:18:26 - 01:18:30: ですつまりはこの誤差を縮めていきたい 01:18:32 - 01:18:36: ここでやっていくことってなんとなく 01:18:36 - 01:18:40: わかりますかねTとyのこの誤差を全て 01:18:40 - 01:18:43: 足してるんですね 01:18:43 - 01:18:46: でこのすべて足したものができるだけ 01:18:46 - 01:18:49: 小さくなってほしいとで全て全て出して 01:18:49 - 01:18:51: いるので 01:18:51 - 01:18:52: 割ってるんですけれども平均を取ってる 01:18:52 - 01:18:54: わけですけれども 01:18:54 - 01:18:56: でまぁちなみに2乗してるのはTとyの 01:18:56 - 01:19:01: 大きさ大小マイナスっていうのを 01:19:01 - 01:19:03: 考慮しないために2乗しているだけなん 01:19:04 - 01:19:07: ではここの大きさをどんどんどんどん 01:19:07 - 01:19:09: ちっちゃくしていきたいというのは 01:19:09 - 01:19:10: ニューラルネットワークでやっていきたい 01:19:10 - 01:19:12: ことですでここの大きさはどんどん 01:19:12 - 01:19:14: ちっちゃくするっていうのはこの 01:19:14 - 01:19:16: キーとyの差を縮めてる 01:19:16 - 01:19:18: ことだと思っていただければいいかと思い 01:19:20 - 01:19:24: これが海域でやって会議で用いる目的関数 01:19:24 - 01:19:27: がやっていることです 01:19:27 - 01:19:29: じゃ一方で回帰ときたら分類がありますよ 01:19:30 - 01:19:55: ちょっと分類についても見ていきましょう 01:19:55 - 01:19:59: 分類がですね今 01:19:59 - 01:20:02: 平均25差というのを回帰で使いました 01:20:02 - 01:20:16: けれども今度か 01:20:16 - 01:20:17: 交際エントロピーというものを使っていき 01:20:25 - 01:20:27: これもまた実装で 01:20:27 - 01:20:34: 使っていくので英語表記も書いておきます 01:20:34 - 01:20:40: でこれもですね一応 01:20:40 - 01:20:42: 例のごとく式を書いていきますが 01:20:42 - 01:21:41: 結構ややこしいです 01:21:41 - 01:21:44: はいたくさん 01:21:44 - 01:21:47: 組織が出てきましたけれどもこっちからお 01:21:47 - 01:21:50: 伝えしておくと 01:21:50 - 01:21:54: これあのこの記号なんですが 01:21:54 - 01:21:57: 0から1を 01:21:57 - 01:22:01: このyncというのは取りますよと 01:22:03 - 01:22:05: こちらの括弧 01:22:05 - 01:22:07: これはですね 01:22:07 - 01:22:12: 0か1を取りますよとそんな風に表して 01:22:19 - 01:22:22: で分類ですからいくつかのクラスに分類 01:22:22 - 01:22:26: するんですね 01:22:26 - 01:22:29: 例えばじゃあこういうちょっと図で書いた 01:22:29 - 01:22:35: 方がこちらもわかりやすいと思うので 01:22:36 - 01:22:39: ABCD4クラスに分類したいという 01:22:39 - 01:22:52: そんな問題設定でいきましょう 01:22:52 - 01:22:54: ABCDの4クラスありましたでこれも 01:22:56 - 01:23:12: 濃度を書いていこうと思います 01:23:16 - 01:23:19: CDについて 03:46:31 - 03:46:32: なんですが 01:23:22 - 01:23:23: Aは1 01:23:23 - 01:23:24: bは2 01:23:24 - 01:23:27: cは3Dは4とまあざっくりこんな感じで 01:23:27 - 01:23:28: 出ましたと 01:23:28 - 01:23:33: しますで分類の時は最後出力層何をするん 01:23:33 - 01:23:34: でしたっけ 01:23:34 - 01:23:36: 皆さん覚えてますでしょうかそう 01:23:36 - 01:23:38: ソフトマックス関数をかけるというのが 01:23:38 - 01:23:41: ありました 01:23:41 - 01:23:44: でソフトマックス関数をかけたら最終的に 01:23:49 - 01:23:51: これ計算すればわかるんですがaが 01:23:57 - 01:23:59: Cが 01:24:01 - 01:24:02: Dが 01:24:02 - 01:24:05: 0.64という値になりました 01:24:06 - 01:24:08: これあのソフトマックス関数かけてます 01:24:08 - 01:24:10: からあれですねパーセンテージで出てる 01:24:12 - 01:24:15: でこちら予測値を 01:24:17 - 01:24:19: 置いておきます 01:24:19 - 01:24:22: で今は予測は出たんですがそもそもの目標 01:24:24 - 01:24:26: どうだったかと 01:24:26 - 01:24:28: いうとこれT 01:24:28 - 01:24:33: Tですねこれが 01:24:33 - 01:24:35: こんな風になっていました 01:24:35 - 01:24:37: つまりは正解のクラスがDだったという 01:24:37 - 01:24:41: ことですねこれ 01:24:41 - 01:24:44: でこのちょっと複雑な式なんですけどこの 01:24:44 - 01:24:48: 目標値Tを入れると 01:24:48 - 01:24:50: 分かりやすいかと思います 01:24:50 - 01:24:52: 目標値これまTが 01:24:52 - 01:24:55: 0ですから 01:24:55 - 01:24:56: Lも 01:24:56 - 01:24:59: もう全部0になってしまうわけですね 01:24:59 - 01:25:02: T0だったらLが 01:25:02 - 01:25:09: この目的関数Lの答えは全部0になります 01:25:10 - 01:25:13: 1だったら 01:25:13 - 01:25:15: 皆さん行われますから 01:25:18 - 01:25:21: 生きるんですよねこのあたりが 01:25:21 - 01:25:26: なのでこれが今0.64とYが0.64な 01:25:26 - 01:25:28: ので結果 01:25:32 - 01:25:35: -60.64ってなるのかな 01:25:35 - 01:25:38: これ計算すると0.44とこれが値になる 01:25:40 - 01:25:43: どういうことかというと正解に 01:25:43 - 01:25:44: 対するものだけ 01:25:45 - 01:25:46: 値が出るように 01:25:46 - 01:25:47: うまいことになってるわけです正解じゃ 01:25:47 - 01:25:49: ないものはもう全然 01:25:49 - 01:25:50: 算出はされず 01:25:50 - 01:25:52: 正解に対するものだけ値が出てくるとで 01:25:52 - 01:25:53: この値をどんどんどんどんちっちゃくする 01:25:53 - 01:25:56: のが私たちがやっていきたいことという 02:49:49 - 02:49:51: ことですね 01:25:59 - 01:26:01: っていうまぁまぁちょっと若干ややこしい 01:26:01 - 01:26:05: 中身はややこしいんですけれども 01:26:05 - 01:26:09: まあ実質的に的にこの目的関数でやりたい 01:26:09 - 01:26:10: のは 01:26:10 - 01:26:12: 目的資格で出た値をどんどんちっちゃくし 01:26:12 - 01:26:15: ていきたいということなので 01:26:15 - 01:26:17: 実装であるときはもうちょっと簡単にでき 01:26:17 - 01:26:20: ますでも中身ではこういうちょっと複雑な 01:26:20 - 01:26:22: 式が動いてるんだなということなんとなく 01:26:22 - 01:26:27: ご理解いただければいいかなと思います 01:26:28 - 01:26:30: 皆さんここまでたくさんやってきました今 01:26:30 - 01:26:32: 分類やりました 01:26:32 - 01:26:34: 会期やりました何をしてきたかって言っ 01:26:34 - 01:26:36: たらそもそもこの目的関数というものでし 01:26:37 - 01:26:40: で目的関数の 01:26:40 - 01:26:43: で出すのがここですね予測値Yと目標値T 01:26:43 - 01:26:46: の差これをどんどんどんどん小さくして 01:26:46 - 01:26:48: いきたいんですね 01:26:48 - 01:26:52: でまず皆既では使うのは平均25差とここ 01:26:52 - 01:26:55: の差をどんどんどんどんここの3求めて 01:26:55 - 01:26:57: どんどんどんどんこれをちっちゃくして 01:26:57 - 01:26:58: いくと 01:26:58 - 01:27:02: いうものでしたし分類では 01:27:03 - 01:27:05: 正解の 01:27:05 - 01:27:07: クラスを入れればこの値が出てこの値を 01:27:07 - 01:27:10: どんどんちっちゃくするというもの交際に 01:27:10 - 01:27:11: トロピーというものを使いますということ 03:54:04 - 03:54:06: でした 01:27:14 - 01:27:17: でこの目的関数っていうのがこのステップ 01:27:17 - 01:27:20: 3だったんですね 01:27:20 - 01:27:22: でステップ3があるということはステップ 01:27:22 - 01:27:23: にもあったし 01:27:23 - 01:27:26: ステップ1もあったわけです 01:27:27 - 01:27:29: 今これとこれとこれ 01:27:29 - 01:27:31: ニューラルネットワーク内の計算のこの順 01:27:31 - 01:27:34: 電波の部分を見てきました 01:27:34 - 01:27:37: これでようやく準電波の計算が一通りご 01:27:37 - 01:27:39: 紹介が終わりました 01:27:39 - 01:27:40: ここからやっていくのが 01:27:40 - 01:27:42: 逆伝播です 01:27:42 - 01:27:44: 逆電波の計算 01:27:44 - 01:27:49: ここをやっていきたいと思います 01:27:49 - 01:27:51: やることが多いですけれどもついてきて 01:27:51 - 01:27:54: ください頑張っていきましょう 01:27:54 - 01:27:56: ちょっと逆伝播ですけれども最初ちょっと 01:27:56 - 01:28:12: 大枠をご紹介します 01:28:12 - 01:28:15: はいで逆連覇ご紹介する 01:28:15 - 01:28:16: 際にですね 01:28:17 - 01:28:19: ニューラルネットワークの構造を簡単に 01:28:19 - 01:28:22: 書いておきます321でバイアスなしで 01:28:22 - 01:28:40: 結構です 01:28:40 - 01:28:43: でおさらいになりますが今ずっとステップ 01:28:43 - 01:28:46: 1ステップにステップ3で見てきた計算 01:28:46 - 01:28:49: っていうのが 01:28:49 - 01:29:02: 順電波でやっていくことでしたね 01:29:02 - 01:29:06: で今度は逆です 01:29:06 - 01:29:10: 逆なので 01:29:10 - 01:29:19: 逆伝播と言います 01:29:19 - 01:29:23: 要はここで目的関数の計算まで行ってその 01:29:23 - 01:29:26: 後ですで目的関数の計算を行うということ 01:29:29 - 01:29:29: Tの 01:29:29 - 01:29:33: 誤差を出せたんですよねその誤差を 01:29:33 - 01:29:35: ちっちゃくしたいよというモチベーション 01:29:36 - 01:29:39: でこの逆伝播走っていきますこの誤差 01:29:39 - 01:29:41: どんどんちっちゃくするために 01:29:41 - 01:29:43: ここでパラメーターを更新していくんです 01:29:43 - 01:29:45: ねパラメータここにいっぱいありました 01:29:47 - 01:29:49: これ最初パラメーターであのランダムの値 01:29:49 - 01:29:52: が与えられてるんですねなのでランダムな 01:29:52 - 01:29:54: 値でを 01:29:54 - 01:29:57: 用いて出されたこの目的関数のこの答え 01:29:57 - 01:29:59: あたりですよねこれをまあもともと 01:29:59 - 01:30:01: ランダムですからもっともっといいものに 01:30:01 - 01:30:04: 最適なものに変えていく 01:30:04 - 01:30:06: つまりこれはパラメーターの更新という 01:30:06 - 01:30:08: ことですけどパラメータの交渉していくの 01:30:08 - 01:30:11: がこの逆伝播でやっていきたいこと 01:30:12 - 01:30:15: 今から使っていくキーワードをいくつかご 01:30:15 - 01:30:31: 紹介していこうと思います 01:30:31 - 01:30:38: まず最終降下法と 01:30:38 - 01:30:47: これがね長いんですよ 01:30:47 - 01:30:54: 確率的 01:31:01 - 01:31:18: でもう一つ書いておきましょうかね 01:31:18 - 01:31:28: 誤差逆電波法 01:31:29 - 01:31:31: これから使っていくキーワードちょっと 01:31:31 - 01:31:36: 出しております 01:31:36 - 01:31:37: で改めてですけど 01:31:37 - 01:31:39: 逆電波では 01:31:39 - 01:31:41: パラメータを最適化していきたいんですね 01:31:41 - 01:31:43: そのために 01:31:43 - 01:31:46: 更新をパラメータの更新を行っていきます 01:31:46 - 01:31:49: なんでそんなことするのこれも皆さんお 01:31:49 - 01:31:53: 分かりですかねここのティートYの差を 01:31:53 - 01:31:54: 縮めるために 01:31:54 - 01:31:56: パラメータを最も良いものにしていくと 01:31:56 - 01:32:00: いうことでした 01:32:01 - 01:32:04: ニューラルネットワークこの構造はモデル 01:32:04 - 01:32:07: を組んだ時にパラメーターは自動的にこう 01:32:07 - 01:32:09: 乱数でこう 01:32:09 - 01:32:11: 与えられてるんですねでたらめの値が与え 01:32:11 - 01:32:14: られてると思ってくださいなので 01:32:14 - 01:32:16: 決していい値ではないんですこの最初に 01:32:16 - 01:32:18: 与えられてるパラメーター 01:32:18 - 01:32:21: なので最初に予測を出したとしてもTと 01:32:21 - 01:32:23: かなりかけ離れてることが多い 01:32:23 - 01:32:25: 予測もちょっとでたらめな値が出てしまう 01:32:25 - 01:32:28: と全然当たらないわけです 01:32:28 - 01:32:31: なので予測がうまくできるように予測 01:32:31 - 01:32:32: うまくいくっていうことはこの差が小さい 01:32:32 - 01:32:34: ということですよねそのためにパラメータ 01:32:34 - 01:32:36: を更新していきます 01:32:36 - 01:32:42: それが逆伝播でやりたいことです 01:32:42 - 01:32:46: でこの逆電波でパラメーターを 01:32:46 - 01:32:47: 抑えていく化するためにこのパラメータ 01:32:47 - 01:32:50: 更新すると言いましたらそれに違う使うの 02:24:37 - 02:24:39: がこの 01:32:58 - 01:32:59: 請求効果法の 01:32:53 - 01:32:58: SGDというものです 01:32:59 - 01:33:03: SGDというものを使ってパラメーターを 01:33:03 - 01:33:05: 更新していきます 01:33:05 - 01:33:08: でちなみにこのSGDを使うために 01:33:08 - 01:33:11: 誤差逆電波法というものがあってでそこで 01:33:11 - 01:33:13: 連鎖率というものを使われますよというま 01:33:13 - 01:33:15: あこういう関係性になっているんです 01:33:15 - 01:33:18: けれども今一番大事なのはここ 01:33:18 - 01:33:21: パラメーターの更新に必要なのがこの 01:33:21 - 01:33:24: SGTという方法です 01:33:24 - 01:33:26: 最強効果法っていうのは 01:33:26 - 01:33:28: 昔からあっていろんな 01:33:28 - 01:33:31: 種類のものがあるんですけれどもこの後出 01:33:31 - 01:33:32: てくる 01:33:32 - 01:33:34: ミニバッジ学習っていうことがあるんです 01:33:34 - 01:33:37: ミニバチ学習に対応させたのがこのSGD 01:33:37 - 01:33:38: だと思ってください 01:33:38 - 01:33:40: ミニバチ学習については後ほどご紹介し 01:33:42 - 01:33:44: ではこの 01:33:44 - 01:33:47: 言葉だけが先走っているこの最近 01:33:47 - 01:33:49: 効果法ですが一体どんなものなのか説明を 02:49:56 - 02:50:15: していきます 01:34:11 - 01:34:18: 効果法と 01:34:18 - 01:34:20: これ最近効果法ってあのパラメーター講師 01:34:20 - 01:34:23: のために行うものですではどんなものなの 01:34:23 - 01:34:26: かこれはねあのグラフを書いた方がわかり 01:34:26 - 01:34:28: やすいので皆さんもぜひ一緒にグラフを 01:34:28 - 01:34:31: 書いてみましょう 01:34:31 - 01:34:33: 大きめに取った方がいいかもしれないです 01:34:36 - 01:34:40: で横軸がWで 01:34:40 - 01:34:47: 軸がLで 01:34:47 - 01:34:51: こうしましょうか 01:34:51 - 01:34:54: あくまでイメージです 01:34:54 - 01:34:55: イメージこんなことをしてますよというの 01:34:55 - 01:34:59: をおかけしたいと思います 01:34:59 - 01:35:01: でまず最強効果法の 01:35:01 - 01:35:24: 順番なんですが 01:35:24 - 01:35:26: 最初オパラメーターの値ってランダムだと 01:35:26 - 01:35:29: お伝えしましたなのでランダムに初期値 01:35:29 - 01:35:31: ダブルの0番目を 01:35:31 - 01:35:34: 求めたいと思います 01:35:34 - 01:35:37: なのでランダムでいいので 01:35:37 - 01:35:40: 適当にこの辺りを 01:35:40 - 01:35:49: ダブルの0だとしましょう 01:35:50 - 01:35:53: 次に 01:35:53 - 01:35:54: 言葉だけが 01:35:54 - 01:35:56: 先ほどもご紹介ありましたけど 01:35:56 - 01:35:59: 購買よ 01:36:02 - 01:36:05: で公倍ってあの微分したものでそのグラフ 01:36:06 - 01:36:08: の傾きのことですね 01:36:11 - 01:36:15: 傾きこんな風にまとめます 01:36:15 - 01:36:18: それぞれあの微分したものというところ 01:36:18 - 01:36:22: ですが今回この値がじゃあこの地点におい 01:36:25 - 01:36:26: プラス5だったとします 01:36:26 - 01:36:30: で傾きがプラス5ですから 01:36:30 - 01:36:40: 例えばこんなグラフが書けるわけですね 01:36:41 - 01:36:42: 皆さんここで 01:36:42 - 01:36:44: 本来の目的に立ち返っていただきたいと 01:36:44 - 01:36:45: 思います最近 01:36:45 - 01:36:47: 効果を失礼しました 01:36:47 - 01:36:50: 請求効果法で何がしたいかと 01:36:50 - 01:36:53: では目的関数を最小化 01:36:53 - 01:36:55: 目指したかったですよね 01:36:55 - 01:36:57: 目的関数ってどんどんどんどんちっちゃく 01:36:57 - 01:37:01: したいとでそのためにパラメータを更新 01:37:01 - 01:37:04: するでパラメーター更新するためのこの 01:37:04 - 01:37:07: 請求効果法でした 01:37:07 - 01:37:09: なのでどんどんどんどんこうちっちゃくし 01:37:09 - 01:37:12: ていきたいわけですできるだけ 01:37:12 - 01:37:15: 0に近づけていきたいわけです 01:37:15 - 01:37:17: 今このL 01:37:17 - 01:37:19: 目的関数ありますけどこのLをどんどん 01:37:19 - 01:37:24: どんどんちっちゃくしていきたいわけです 01:37:24 - 01:37:28: で最初の値ってじゃあどこかってまあこの 01:37:28 - 01:37:31: グラフで言うとここですよねこの一番谷に 01:37:31 - 01:37:34: なってるところだと思います 01:37:36 - 01:37:38: ダブルの0今ここにあのランダムに最初の 01:37:38 - 01:37:39: 値ありますけど 01:37:39 - 01:37:42: ダブルの0をよくよくはここに持っていき 01:37:42 - 01:37:44: たいですね 01:37:44 - 01:37:47: でじゃあここってじゃあどんな場所なの今 01:37:47 - 01:37:51: 傾き5だったけど実はここの傾きって 01:37:51 - 01:37:55: 0ですよね 01:37:56 - 01:37:58: 傾きってあの勾配のことですから 01:37:58 - 01:38:01: 勾配が0のこの位置にWを持っていきたい 01:38:01 - 01:38:04: つまりパラメータを持っていきたいと今 01:38:04 - 01:38:07: ここですけどここのパラメーターをできる 01:38:07 - 01:38:10: だけここに近づけたいこれがパラメーター 01:38:10 - 01:38:12: を更新するということですパラメータ 01:38:12 - 01:38:14: パラメータ更新更新とかって言うんです 01:38:14 - 01:38:15: けどこれ 01:38:15 - 01:38:18: 要はこのパラメーターをできるだけ 01:38:18 - 01:38:20: ちっちゃくちっちゃくこの底の方に移動さ 01:38:20 - 01:38:23: せてるんですね 01:38:23 - 01:38:25: なのでじゃあ 01:38:25 - 01:38:28: 勾配を求めて5でしたとで最近効果法では 01:38:28 - 01:38:35: 何をやってるかと 01:38:35 - 01:38:37: 言いますと 01:38:45 - 01:38:47: 公倍分動いていくということをしたいと 01:38:49 - 01:38:59: ちょっとまず文字で書きますね 01:38:59 - 01:39:01: 米求めたらいよいよパラメーター 01:39:01 - 01:39:03: 更新するということになるんですがこの式 01:39:03 - 01:39:05: をちょっとお伝えしておきましょうか 01:39:06 - 01:39:08: 更新して新しいパラメーターになるので 01:39:08 - 01:39:12: ダブルの1としておきます 01:39:12 - 01:39:14: でこうここ 01:39:14 - 01:39:16: 0から1になるにはどうしてやったらいい 01:39:18 - 01:39:20: さっき求めた 01:39:20 - 01:39:24: 勾配を引いてやるんです 01:39:24 - 01:39:27: 今ここ5でしたよね 01:39:31 - 01:39:34: ここから 01:39:36 - 01:39:47: 引いてやればいいわけです 01:39:47 - 01:39:50: よいしょとなるとこの位置に 01:39:51 - 01:39:53: ダブルの位置が 01:39:53 - 01:39:56: 移動するのわかるでしょうか 01:39:56 - 01:40:01: どうでしょうさっきに比べて 01:40:01 - 01:40:06: ここに近づいている気がしませんか 01:40:06 - 01:40:08: でこれをどんどん繰り返していきたいん 01:40:09 - 01:40:11: 例えばここの勾配を求めましたここの傾き 01:40:11 - 01:40:16: を求めましたとなるとここが 01:40:16 - 01:40:24: マイナス3だったとします 01:40:24 - 01:40:29: じゃあまた同じことですよね 03:58:19 - 03:58:22: ここで 01:40:31 - 01:40:37: -3だったということでじゃあここから 01:40:37 - 01:40:39: この式にマイナス3を入れてやるわけです 01:40:40 - 01:40:41: ここが 01:40:41 - 01:40:47: プラスになるのがわかると思いますなので 01:40:58 - 01:41:00: -3として 01:41:00 - 01:41:02: プラスの動きをする 01:41:02 - 01:41:04: というところでこんな感じになるんじゃ 01:41:04 - 01:41:07: ないでしょうか 01:41:07 - 01:41:11: で新しいまあダブルの2にしましょうか 01:41:11 - 01:41:14: という感じで今これ 01:41:14 - 01:41:16: ずっとこうパラメーターを更新するという 01:41:16 - 01:41:18: ことをいくつかやってきたんですが 01:41:18 - 01:41:23: パラメーターがどんどんどんどんこう谷に 01:41:23 - 01:41:25: 落ちていってるのが 03:48:08 - 03:48:13: わかるかと思います 01:41:29 - 01:41:31: ここに近づけていきたいそんな 01:41:31 - 01:41:33: モチベーションでこの最近放課法は行われ 01:41:33 - 01:41:37: ています 01:41:43 - 01:41:46: でここでですねちょっと注意したいのが 01:41:46 - 01:41:48: 今まあうまいこと 01:41:48 - 01:41:51: +5-3という形で 01:41:51 - 01:41:53: 小谷に落ちていくことができたんですが 01:41:53 - 01:41:57: これもしここがですね 01:41:57 - 01:41:59: ふとかっていう傾きだったらどうなってた 01:41:59 - 01:42:01: と思いますか 01:42:01 - 01:42:03: 100だったら 01:42:03 - 01:42:04: -100をこうしなきゃいけないわけです 01:42:04 - 01:42:07: からマイナス5だったらマイナス100 01:42:07 - 01:42:09: ってことで 01:42:09 - 01:42:12: ずーっとこの先なわけですよね 01:42:12 - 01:42:15: っていうことはこのマグラフが続いている 01:42:15 - 01:42:17: としてもこの画面に収まりきらないぐらい 01:42:17 - 01:42:20: ちょっと上の方に 01:42:22 - 01:42:23: 点が 01:42:23 - 01:42:25: 存在してると思います 01:42:25 - 01:42:29: で次の値もかなり大きいマイナス200と 01:42:29 - 01:42:32: かだったらどんどん上に行ってどんどん 01:42:32 - 01:42:34: どんどんどんどん上に行って 01:42:34 - 01:42:36: 本当はこの下に持っていきたいのに 01:42:36 - 01:42:38: 上に上に行って 01:42:38 - 01:42:39: 購買爆発という 01:42:39 - 01:42:42: 現象が起こってしまうんですね 01:42:42 - 01:42:44: どんどんどんどん収束せず 01:42:44 - 01:42:47: 上に上に上がってしま 01:42:47 - 01:42:50: うこれは良くないよねということで 01:42:50 - 01:42:52: 購買爆発を防ぐために 01:42:52 - 01:42:55: 学習係数というものを入れてやります 01:42:55 - 01:42:58: ここにちょっとPを崩したようなこれ 01:42:58 - 01:43:00: ローって言うんですけど 01:43:00 - 01:43:01: このロウというので 01:43:01 - 01:43:03: 表します 01:43:03 - 01:43:09: 学習係数 01:43:09 - 01:43:12: で学習係数はこの0から1で表すことが 01:43:13 - 01:43:16: でまぁだいたい採用されるのは0.01と 01:43:16 - 01:43:19: いう値ですねでこの0.01入れてやる 01:43:19 - 01:43:21: ことで何がいいかというとさっきお伝えし 01:43:32 - 01:43:35: 購買爆発を防ぐというそんな効果があり 01:43:37 - 01:43:40: 仮にここがプラス100とかっていう値で 01:43:40 - 01:43:42: もここに0.01が加わることで 01:43:42 - 01:43:43: ちゃんと勾配がこう降りていくことが 01:43:43 - 01:43:50: できるんですね 01:43:50 - 01:43:52: さあここまでよろしいでしょうか 01:43:52 - 01:43:54: パラメーター更新のための 01:43:54 - 01:43:57: 再吸効果法の計算の仕方をご紹介しました 01:43:58 - 01:44:00: 購買を求めて 01:44:00 - 01:44:02: 更新式をこの使ってこの更新式ですね使っ 01:44:02 - 01:44:04: てパラメーターを 01:44:04 - 01:44:07: 更新していくとでパラメータ更新とは何な 01:44:07 - 01:44:09: のかって言ったらこの喪失関数のこの目的 01:44:09 - 01:44:12: 関数の最小の点にパラメータを近づけて 01:44:12 - 01:44:15: いくことこれをまず 01:44:15 - 01:44:20: 押さえてもらえれば大丈夫です 01:44:20 - 01:44:25: でちなみにここで一つ最近効果法に関わる 01:44:25 - 01:44:38: お話をできればなと思うんですが 01:44:38 - 01:44:42: そもそもですね 01:44:42 - 01:44:51: 今あのグラフを書きましたけど 01:44:51 - 01:44:56: 体液的最適解としておきましょう 01:44:57 - 01:45:00: わかりやすいグラフを書きましたけど 01:45:00 - 01:45:02: そもそもあのこんな綺麗なグラフにはなら 01:45:02 - 01:45:04: ないんですね人間の目には見えません 01:45:04 - 01:45:07: こんなにあの可視化できません 01:45:07 - 01:45:09: 簡単なグラフとしては本来なら表せない 01:45:09 - 01:45:11: ですあの最近 01:45:11 - 01:45:13: 効果法でどんなことをしてるのっての 01:45:13 - 01:45:15: イメージしやすくするためにこんな 01:45:15 - 01:45:16: 可視化できる 01:45:16 - 01:45:18: 図を書いたわけなんですが 01:45:18 - 01:45:20: 本来ならもうぐっちゃぐちゃでこんな綺麗 01:45:20 - 01:45:25: にはなってないんですねこの図は 01:45:25 - 01:45:28: それのイメージとして書くとなんとなく 01:45:34 - 01:45:41: もうほんとグチャグチャなこんな感じです 01:45:42 - 01:45:47: 本当ならこうなってるんですね 01:45:47 - 01:45:50: でここからのお話ちょっと余力のある方 01:45:50 - 01:45:52: ぜひ聞いてみてください 01:45:52 - 01:45:55: 待機的一曲最適解というお話をしていき 01:45:56 - 01:45:59: 補足です 01:46:01 - 01:46:05: それぞれ谷があると思うんですね 01:46:05 - 01:46:17: 局所書いています 01:46:17 - 01:46:20: でもしかしたら勘の言い方はお気づきかも 01:46:20 - 01:46:22: しれませんけどさっきみたいに 01:46:22 - 01:46:26: パラメーターをもし更新したいとで最初の 01:46:26 - 01:46:29: ランダムの値が例えばここでしたと 01:46:29 - 01:46:32: なった時に 01:46:32 - 01:46:34: これをどんどん 01:46:34 - 01:46:37: 硬化させていくとこの辺りここに近づい 01:46:37 - 01:46:40: ちゃうんですよねただ 01:46:40 - 01:46:43: 全体としてこの目的関数を見たときに一番 01:46:43 - 01:46:49: 小さいのってここのはずなんです 01:46:49 - 01:46:54: これを 01:46:54 - 01:46:57: 帯域的 01:46:57 - 01:47:00: 最適解と 01:47:04 - 01:47:07: 本来ならさっきの原則で言うと 01:47:07 - 01:47:09: この目的関数は一番ちっちゃいところに 01:47:09 - 01:47:12: 持っていきたいからここに落とし込みたい 01:47:12 - 01:47:15: はずなのに最初のランダムな値がまあ 01:47:15 - 01:47:16: 例えばここだったら 01:47:16 - 01:47:19: ここに陥ってしまうんですねこれは局所会 01:47:19 - 01:47:21: に陥ってしまうとそんな風に言ったりし 01:47:24 - 01:47:26: えでも 01:47:26 - 01:47:28: パラメーターっていうのは最終的にはここ 01:47:28 - 01:47:30: に落とし込みたいんだよねって一番 01:47:31 - 01:47:35: 勾配がこの0になるところにパラメーター 01:47:35 - 01:47:37: 落とし込みたいんですけどここだって購買 01:47:37 - 01:47:39: がゼロになってしまいますから 01:47:39 - 01:47:42: ここを目指しちゃうんですねもし最初の値 01:47:42 - 01:47:45: があまりいい場所じゃなかったらじゃあ 01:47:45 - 01:47:48: ここに落とし込むにはどうしたらいいん 01:47:48 - 01:47:50: だろうっていうのこの後ちょっとご紹介し 01:47:50 - 01:47:53: ますのでこのお話をちょっと頭の隅に覚え 01:47:54 - 01:48:02: ておいていただければと思います 01:48:02 - 01:48:04: でこれも合わせて補足として聞いて 01:48:04 - 01:48:08: ください最初に5歳逆伝播法というキー 01:48:08 - 01:48:10: ワードが出てきてたと思います 01:48:10 - 01:48:12: 連鎖率とかいうね 01:48:12 - 01:48:13: キーワードもあったと思いますけれども 01:48:13 - 01:48:16: これもですねこの 01:48:16 - 01:48:19: 逆電波を行う上でこのパラメーターの更新 01:48:19 - 01:48:20: を行う上で 01:48:20 - 01:48:22: 使っていく方法になります要は計算の方法 01:48:22 - 01:48:25: ですねその中で連鎖率を用いますよという 01:48:25 - 01:48:28: ところですここですね2つ結構 01:48:28 - 01:48:30: 複雑な部分になってくるので今回は割愛し 02:02:25 - 02:02:26: ますけれども 01:48:31 - 01:48:33: ご参加電波法というのを使ってこの 01:48:33 - 01:48:37: パラメーターの更新を行うとそれで 01:48:37 - 01:48:42: 押さえていただければ結構かなと思います 01:48:42 - 01:48:46: ではですね最後ちょっと 01:48:46 - 01:48:48: 言葉出てきましたミニバッジ学習という 01:48:48 - 01:48:50: ところ最後お伝えしてこの 01:48:51 - 01:48:53: 手書きでご説明していくところは終わって 01:49:03 - 01:49:05: 皆さんもお手元に 01:49:05 - 01:49:08: 実装できる環境を用意してください私は 01:49:08 - 01:49:10: Googleコラボを使ってやっていき 01:49:10 - 01:49:12: ますねで今回使うのは 01:49:12 - 01:49:13: ディープラーニングの 01:49:13 - 01:49:15: 代表的なフレームワーク 01:49:15 - 01:49:17: 配当値使っていきますパイトーチあれなん 01:49:17 - 01:49:21: ですね本当今人気なので何かエラーが出た 01:49:21 - 01:49:22: 時に 01:49:22 - 01:49:25: すぐに検索すればエラーの解決方法が出て 01:49:25 - 01:49:27: いきやすいのでエラーってこの行動を打っ 01:49:27 - 01:49:30: ていくとやっぱり出ていきやすいものです 01:49:30 - 01:49:31: のでついて 01:49:31 - 01:49:34: 離れないものですのでそういった部分でも 01:49:35 - 01:49:37: 便利かなというところで今回使っていこう 01:49:38 - 01:49:40: テザフローを使ったことある方も 01:49:40 - 01:49:42: いらっしゃると思うんですが今回パイ 01:49:42 - 01:49:45: トーチでやっていこうと思います 01:49:45 - 01:49:48: でこの実装で何をしていくかと言いますと 01:49:48 - 01:49:52: 手書きで書いたネットワークの構造を 01:49:52 - 01:49:54: 配当地上で定義していくと今まで手書きで 01:49:54 - 01:49:57: 書いてきたものをネットワークの構造を 01:49:57 - 01:49:59: 回答地上で定義をしていきたいと思います 01:49:59 - 01:50:03: でまずはですね今から行うのはまだ学習は 01:50:03 - 01:50:05: 行えませんまずは 01:50:05 - 01:50:06: 純連覇までの 01:50:06 - 01:50:09: 線形変換非線形変換とかってありましたよ 01:50:09 - 01:50:11: ねああいったところのご紹介をしたいと 01:50:13 - 01:50:15: では早速 01:50:15 - 01:50:17: 書いていきましょう 01:50:17 - 01:50:19: まずですね 01:50:19 - 01:50:21: パイトーチを入れましょう 01:50:21 - 01:50:24: インポートしましょう 01:50:24 - 01:50:26: インポート倒置として入れてくださいパイ 01:50:26 - 01:50:28: トーチはトーチというお名前で定義されて 01:50:28 - 01:50:32: います 01:50:32 - 01:50:34: ちょっとお時間かかりますがこの 01:50:34 - 01:50:38: てんてんてんがなくなればタイと違う 01:50:38 - 01:50:42: ちゃんと入ったということになりますね 01:50:42 - 01:50:46: はい入りましたで次にですねこの後 01:50:46 - 01:50:48: 前結放送を定義していきたいこの層の定義 01:50:48 - 01:50:54: などにとても便利なものがありますこれも 01:50:54 - 01:50:56: 入れておきますインポート 01:50:56 - 01:51:02: トーチドットNNとしてやってください 01:51:02 - 01:51:05: 統治ドットNNasNNというところで年 01:51:05 - 01:51:08: とNNをこの後使うときはNNとして 01:51:08 - 01:51:10: 呼び出せますよと 01:51:10 - 01:51:12: あの略称みたいなもんですねというふうに 01:51:12 - 01:51:15: 書いてください 01:51:15 - 01:51:17: では大切な 01:51:17 - 01:51:19: 色んな便利グッズがまあこういったものを 01:51:19 - 01:51:22: インポートするとこ便利物が使えるように 01:51:22 - 01:51:23: なるとそんな風に思っていただきたいん 01:51:24 - 01:51:26: 便利グッズ入れたところで 01:51:26 - 01:51:27: 実際に 01:51:27 - 01:51:30: 手書きで書いていった 01:51:30 - 01:51:32: 前結合層ってありましたがちょっと簡単に 01:51:32 - 01:51:35: サン濃度から 01:51:35 - 01:51:41: 2濃度の 01:51:41 - 01:51:43: 前結合を 01:51:43 - 01:51:47: 定義してみたいと思います 01:51:47 - 01:51:51: で前結放送なんですが 01:51:51 - 01:51:54: 英語で書くとこうなります 01:51:54 - 01:51:58: フリーコネクティッドデイヤーですかねな 01:51:58 - 01:52:01: のでこのFとCをとって 01:52:01 - 01:52:04: FCとを表すことが多いので 01:52:04 - 01:52:08: FC=として書いていきますね 01:52:08 - 01:52:09: FC=で 01:52:09 - 01:52:12: 皆さんの手書きのところの一番最初の 01:52:13 - 01:52:15: 右端に書いたら覚えてますかね 01:52:15 - 01:52:17: 前結合層をパートウォッチで定義するとき 01:52:17 - 01:52:19: こんな風に書きますよとちょっと昔の話に 01:52:19 - 01:52:21: なりますけど 01:52:21 - 01:52:25: これこんな風に書いてましたね 01:52:25 - 01:52:31: 3から2ですよと 01:52:31 - 01:52:34: これFC中身見ると 01:52:35 - 01:52:38: 要は入力ですね入力の値が3でアウト 01:52:38 - 01:52:41: フューチャー出力の値が2でバイアスも 01:52:41 - 01:52:43: あるよというですよと 01:52:43 - 01:52:45: ちょっとこれ前結合層を 01:52:45 - 01:52:48: 定義できたということになります 01:52:48 - 01:52:50: でちなみに私ごめんなさいサラッとここ 01:52:50 - 01:52:52: 書いたんですがこの 01:52:52 - 01:52:54: シャープで書いたところはコメントアウト 01:52:54 - 01:52:55: と言って 01:52:55 - 01:52:57: 実行はされませんこの緑になってる部分 01:52:58 - 01:52:59: シャープで書いた部分は実行されませんの 01:53:00 - 01:53:03: メモ書きとかにぜひご使用ください私も 01:53:03 - 01:53:05: 書いていくので皆さんも一緒に書いて 01:53:05 - 01:53:07: いただいてもいいですし別に書かなくても 01:53:07 - 01:53:10: 構いません 01:53:10 - 01:53:12: で前結放送 01:53:12 - 01:53:14: 重みとかバイアスといったパラメータも 01:53:14 - 01:53:16: ありましたよねこれちょっと定義して 01:53:16 - 01:53:17: いこうと 01:53:17 - 01:53:20: 定義じゃないです見ていこうと思います 01:53:20 - 01:53:23: Fシードとウェイトでこれが重みですで 01:53:23 - 01:53:28: バイアスはそのままFCドットバイアス 01:53:28 - 01:53:32: 中身が出てきましたねそれぞれ 01:53:33 - 01:53:37: でもしかしたら皆さんと私の値がこれ違っ 01:53:37 - 01:53:39: てるんじゃないでしょうか 01:53:39 - 01:53:42: ちょっと確認してみてください 01:53:42 - 01:53:46: でこのパラメーターをどんどんどんどん 01:53:46 - 01:53:49: 更新していくんですよとで更新していって 01:53:49 - 01:53:52: 目的関数の値をどんどんちっちゃくして 01:53:52 - 01:53:53: いくのがいいんですよ 01:53:53 - 01:53:54: ゆらのネットワークでやりたいことなん 01:53:54 - 01:53:56: ですよっていう話を手書きの部分でやって 01:53:56 - 01:54:00: きましたけれどもこのパラメーター最初は 01:54:00 - 01:54:03: ランダムな値なんですよもうあのその何の 01:54:03 - 01:54:05: 意味もない値なんですよ 01:54:05 - 01:54:06: ランダムに与えられたものなんですね 01:54:06 - 01:54:08: そんな話を 01:54:08 - 01:54:10: 手書きのところも少ししていましたなので 01:54:10 - 01:54:14: 私と皆さんではまた異なる値が出ているか 02:41:25 - 02:41:28: なと思います 01:54:18 - 01:54:20: なので私と違っても気にしないで大丈夫 01:54:20 - 01:54:22: ですで私今 01:54:22 - 01:54:25: 0.16330.4870ですけど 01:54:25 - 01:54:28: 全てのセルをちょっと実行していきますね 01:54:28 - 01:54:30: 改めてするとほらさっきとちょっと値 01:54:30 - 01:54:32: 変わってますよねこれ 01:54:32 - 01:54:35: 実行するために値変わっちゃうんですねで 01:54:35 - 01:54:37: これ何がまずいかっていうと 01:54:37 - 01:54:40: 同じデートデータセットで同じモデル組ん 01:54:40 - 01:54:42: 答え変わっちゃったってことになっちゃう 01:54:42 - 01:54:44: それじゃあまずいじゃないですかで皆さん 01:54:44 - 01:54:47: と私のお与えも変わるのでそもそも合っ 01:54:47 - 01:54:49: てるかあー合ってないかわからないという 01:54:49 - 01:54:51: ことになってしまいますのでここで 01:54:51 - 01:54:54: 乱数のシードを固定という方法を使って 01:54:54 - 01:54:59: いきたいと思います 01:54:59 - 01:55:02: 言葉はなんかややこしいんですが 01:55:02 - 01:55:05: 要はこのランダムな値を皆さんと渡して 01:55:05 - 01:55:07: 一致させましょうよと 01:55:07 - 01:55:11: 同じ値を使いたいと 01:55:11 - 01:55:13: トーチドとマニュアルシードとやってやっ 01:55:13 - 01:55:17: てでこの中身なんですが皆さんと私が同じ 01:55:17 - 01:55:20: 値を入れれば 01:55:22 - 01:55:25: 数で固定をすることができます 01:55:25 - 01:55:28: なので今回はゼロで 01:55:28 - 01:55:31: 固定をしたいと思います 01:55:31 - 01:55:34: 皆さんもゼロを入れてください 01:55:34 - 01:55:36: でラスのシードを固定したのでここでもう 01:55:39 - 01:55:46: 前結合層定義していきましょう 01:55:46 - 01:55:49: これねエネエンドとリニアで3から2 01:55:49 - 01:55:51: ノートと 01:55:54 - 01:55:57: ACウェイトで 01:55:57 - 01:56:00: 重み出して 01:56:00 - 01:56:05: バイアスで 01:56:05 - 01:56:06: 入って出ましたね 01:56:06 - 01:56:09: おそらく皆さんと私同じ数が出てるはず 01:56:09 - 01:56:12: ですでもしかしたらバージョンが違うと 01:56:12 - 01:56:16: この値が変わってくる可能性がありますで 01:56:16 - 01:56:22: バージョンのチェックの仕方ですが私が 01:56:22 - 01:56:25: どっちだったこれ皆さんもやってみて 01:56:25 - 01:56:27: くださいもしあたり違う方はやってみて 01:56:30 - 01:56:35: バージョンの 01:56:35 - 01:56:37: でこのバージョンじゃなければもしこれ 01:56:37 - 01:56:38: じゃなければ 01:56:39 - 01:56:40: 値が変わってくることがあるんですけれど 01:56:40 - 01:56:44: もここを確認をしてみてくださいで値が 01:56:44 - 01:56:45: 同じ方は 01:56:45 - 01:56:49: 気にする必要はありません 01:56:49 - 01:56:53: はいではこれで進めていこうと思います今 01:56:53 - 01:56:56: ですね前結合層を 01:56:56 - 01:56:59: 定義できましたとで乱数も固定しましたと 01:56:59 - 01:57:02: でウェイトとバイアスも出しましたという 01:57:02 - 01:57:04: ところまでやりました 01:57:04 - 01:57:07: ここからですね 01:57:07 - 01:57:09: 前結合層の中で行われる 01:57:09 - 01:57:12: 線形変換というのがありました 01:57:12 - 01:57:14: 非線形変換というのもありましたあの計算 01:57:14 - 01:57:22: について少しずつ見ていこうと思います 01:57:24 - 01:57:27: これですねあの言葉会ってコマンドmmと 01:57:27 - 01:57:30: 押すと記述モードになるのでこれもあの 01:57:30 - 01:57:33: 実行はされませんので何かメモを残したい 01:57:33 - 01:57:35: 時こんな風に使っていただければいいかな 01:57:37 - 01:57:39: さあここで 01:57:39 - 01:57:41: 計算に入っていきますで計算なんです 01:57:41 - 01:57:44: けれどもパイ島地上で計算するときに 01:57:44 - 01:57:46: ルールがあるんですね 01:57:46 - 01:57:48: データの形を統一しなきゃいけないデータ 01:57:48 - 01:57:51: 型をあの 01:57:51 - 01:57:54: 変えなきゃいけないんですねここが 01:57:55 - 01:57:56: 初心者の方が 01:57:56 - 01:57:59: 忘れてしまったりとかなかなか理解でき 01:57:59 - 01:58:01: なかったりするところとよく言われてるん 01:58:01 - 01:58:04: ですけれども 01:58:04 - 01:58:06: ここでもそんな難しいことじゃないので 01:58:06 - 01:58:09: タイトルで使用するデータ型は 01:58:09 - 01:58:11: テンソル型に変える 01:58:11 - 01:58:15: でそれ型に変えるこれもう何でじゃなくて 01:58:15 - 01:58:18: もルールだと思っていただければいいかな 01:58:21 - 01:58:25: データ型を 02:17:52 - 02:17:53: テンソル型に 01:58:34 - 01:58:37: でちょっとこれをやっていきましょう 01:58:37 - 01:58:42: まず入力のXとしておきましてでそれ型に 01:58:42 - 01:58:44: 変えるのはこんな風に書いてください 01:58:49 - 01:58:52: テンシャルと 01:58:52 - 01:58:56: で今入力値を仮に123と 01:58:56 - 01:58:59: いうふうにしておきます123とでその 01:58:59 - 01:59:00: 123を 01:59:00 - 01:59:03: 点それ型に変えたいのでこんな風に 01:59:05 - 01:59:09: 丸括弧の中に四角四角で1 01:59:11 - 01:59:14: でカンマに 01:59:15 - 01:59:19: 感は3 01:59:19 - 01:59:23: これちょっと記述がややこしいんですが 01:59:23 - 01:59:26: ドットを必ず書いてください 01:59:29 - 01:59:31: でこうすることで 01:59:31 - 01:59:34: データ型を確認します 01:59:34 - 01:59:46: 確認すると 01:59:46 - 01:59:49: どうでしょうか 01:59:49 - 01:59:52: 閉じてそれ型になってるのがわかるかなと 01:59:55 - 01:59:58: でこれフロート32 01:59:58 - 02:00:01: フロート32っていうのがこれ小数を取る 02:00:01 - 02:00:03: 値というふうに思っていただければいいか 02:00:03 - 02:00:05: なと思います数値の中でも小数を取って 02:00:05 - 02:00:06: ますよ 02:00:06 - 02:00:08: intだったら整数なんですがフロートの 02:00:08 - 02:00:11: 場合は小数を取ってますよと 02:00:11 - 02:00:15: 思っていただければ結構です 02:00:15 - 02:00:17: でこれをしてようやく 02:00:17 - 02:00:28: 線形変換を行う準備ができました 02:00:28 - 02:00:29: で選挙変換の 02:00:29 - 02:00:31: 計算なんですがとても 02:00:31 - 02:00:32: シンプルです 02:00:32 - 02:00:33: 手書きの時もですね 02:00:33 - 02:00:35: Uと置いていたと思いますので今回も言う 02:00:35 - 02:00:37: とします 02:00:38 - 02:00:41: 前月放送をここで定義してますよね 02:00:41 - 02:00:46: FC=となのでこのFCを使って 02:00:46 - 02:00:48: 簡単にできちゃいますでここにデータXを 02:00:51 - 02:00:57: これだけで終わりですで値確認します 02:00:57 - 02:01:01: このように値が出ましたとこんな感じで 02:01:01 - 02:01:02: 簡単に線形変換をすることができます 02:01:02 - 02:01:05: ちょっとあの手書きの時のことを思い出し 02:01:05 - 02:01:06: てほしいんですが 02:01:06 - 02:01:09: 手書きは最初 03:34:35 - 03:34:36: Xと 02:01:09 - 02:01:12: 重みをかけてでまたXともみをかけてって 02:01:12 - 02:01:14: のタスクさんと足していったアーテンの人 02:01:15 - 02:01:17: だと思うんですがそういうのをもう 02:01:17 - 02:01:19: 機会側が勝手にやってくれるっていうのが 02:01:19 - 02:01:21: 非常にこれ実相時の 02:01:21 - 02:01:25: メリットかなと思います 02:01:25 - 02:01:28: 同じく線形変換もやっていきたいと思い 02:01:33 - 02:01:35: 以前行け変換の計算やっていくんです 02:01:35 - 02:01:37: けれどもここで 02:01:37 - 02:01:40: 一線形変換を行う 02:01:40 - 02:01:42: 基本的なこの活性化関数を使うというのも 02:01:42 - 02:01:46: ありましたこういったものも 02:01:46 - 02:01:49: 配当値には定義されているのでそれを 02:01:50 - 02:01:57: 読み込みたいと思います 02:01:57 - 02:01:58: トーチドットNN 02:02:02 - 02:02:05: ファンクショナルとこれを 02:02:05 - 02:02:07: Fとして大文字のFとして 02:02:07 - 02:02:11: 読み込んでおきましょう 02:02:11 - 02:02:14: でこれさえ読み込めば 02:17:48 - 02:17:50: これをですね 02:02:16 - 02:02:23: レル関数というのを使ったかと思います 02:02:23 - 02:02:25: 非線形変換を行う際にちょっと復習になり 02:02:26 - 02:02:29: 活性化関数を使うとで活性化関数の 02:02:29 - 02:02:31: シグモイド関数とかもありましたけれども 02:02:32 - 02:02:35: 関数を使われているというところで今この 02:02:36 - 02:02:37: 土地ドットNNファンクショナルを 02:02:37 - 02:02:39: インポートしたのでこれを使って簡単に 02:02:39 - 02:02:42: 行っていきますで手書きでもHと置きまし 02:02:42 - 02:02:45: たので今回もHと置いてこの 02:02:45 - 02:02:46: Fを使って 02:02:46 - 02:02:49: レールとしてやって 02:02:49 - 02:02:52: 先ほど線形変化に出したこのUですね 02:02:52 - 02:02:53: Uを 02:02:53 - 02:02:57: 引数に入れてやってください 02:02:57 - 02:03:02: でまた課題の確認です 02:03:02 - 02:03:06: はいこのように出ました 02:03:06 - 02:03:07: さあこれ 02:03:07 - 02:03:08: ベル関数 02:03:08 - 02:03:12: 皆さん覚えてらっしゃいますでしょうか 02:03:12 - 02:03:15: このyouがレル関数にかかってこんな風 02:03:16 - 02:03:20: 算出されているわけですがこれがこうなる 02:03:22 - 02:03:23: リル関数を覚えてらっしゃいますでしょう 02:03:24 - 02:03:38: 復習に書いておきますと 02:03:38 - 02:03:53: ノート見返していただいても結構です 02:03:53 - 02:03:57: ネル関数ってこうだったこうやってかける 02:03:57 - 02:04:00: 書くことができたというのを覚え 02:04:00 - 02:04:01: てらっしゃいますでしょうかちょっとこれ 02:04:01 - 02:04:03: 実行したくないのでコメントアウトして 02:04:03 - 02:04:08: おきますが 02:04:08 - 02:04:09: ウェル関数っていうのは 02:04:17 - 02:04:18: 0か 02:04:11 - 02:04:17: U大きい方を取るんですね 02:04:18 - 02:04:21: U大きい方を取ると 02:04:23 - 02:04:24: Uが 02:04:24 - 02:04:26: 0よりちっちゃかったら 02:04:26 - 02:04:29: 0を取りますしでUが 02:04:30 - 02:04:31: 0より大きかったら 02:04:31 - 02:04:34: Uを取りますし 02:04:34 - 02:04:36: これどちらかを取るということでしたなの 02:04:36 - 02:04:39: で今回の場合これ 02:04:39 - 02:04:42: 例えばマイナス0.8に19これ0より 02:04:42 - 02:04:44: ちっちゃいですね 02:04:44 - 02:04:47: なので0になってると 02:04:47 - 02:04:50: 0.0526これ0より大きいですよねだ 02:04:51 - 02:04:53: からそのままの値を取ってると 02:04:53 - 02:04:57: これがレル関数の計算でした 02:04:57 - 02:05:00: このあたり大丈夫そうでしょうかもう一度 02:05:00 - 02:05:02: 復習をちょっとしてみてください 02:05:02 - 02:05:04: というわけで 02:05:04 - 02:05:06: 線形変換非線形変換と 02:05:06 - 02:05:10: ニュラルネットワークの純連覇で行う計算 02:05:10 - 02:05:12: 手書きのノートであったとこのステップ1 02:05:12 - 02:05:16: ステップ2を今見ているところですで 02:05:16 - 02:05:18: ステップ3もありましたね 02:05:18 - 02:05:21: 目的関数っていうのがありましたよね最後 02:05:22 - 02:05:29: やっていきたいと思います 02:05:30 - 02:05:32: 目的良い関数の 02:05:32 - 02:05:35: 計算をここではですねちょっとあの今流れ 02:05:35 - 02:05:37: というより目的関数の計算こんな風にする 02:05:37 - 02:05:39: んですよと 02:05:39 - 02:05:41: ご紹介するにとどめておきたいと思います 02:05:41 - 02:05:43: なので目的関数 02:05:44 - 02:05:46: 皆さんどういう時に使うか覚えて 02:05:46 - 02:05:49: いらっしゃいますでしょうか最後は予測値 02:05:49 - 02:05:52: Yが出てでそれが教師データTと比べて 02:05:52 - 02:05:56: そこの誤差を出すというものでしたから 02:05:56 - 02:05:59: Tがまず必要なんですねなので今回 02:05:59 - 02:06:02: T1と3というふうに勝手に置きたいと 02:06:05 - 02:06:08: でこれ計算するときテンソル型にいっぱい 02:06:08 - 02:06:09: 土地では変えなきゃいけないっていうのが 02:06:09 - 02:06:11: ありましたので 02:06:15 - 02:06:18: 型にしておいて 02:06:18 - 02:06:22: でこんな風に置いておきましょうか1 02:06:25 - 02:06:29: で3 02:06:29 - 02:06:32: とかですねまず 02:06:32 - 02:06:36: 目的関数の計算ということでここ 02:06:36 - 02:06:43: 目標値をこんな風に設定します 02:06:43 - 02:06:45: はいでTがいるのであの 02:06:45 - 02:06:47: Yも言いますよねというところで前も 02:06:47 - 02:06:52: こちらで今回は勝手に決めてしまいます 02:06:52 - 02:06:55: 予測値ワインは 02:06:55 - 02:06:58: これもトーチドットテンソルに転生型にし 02:06:58 - 02:07:01: ておきます 02:07:01 - 02:07:06: でこれ2と4にしておきましょう 02:07:06 - 02:07:07: 今あの 02:07:07 - 02:07:09: 計算をするために 02:07:09 - 02:07:11: 用意した何の意味もない数字だと思って 02:07:14 - 02:07:20: こうですね 02:07:20 - 02:07:27: で外側に大きな角度 02:07:29 - 02:07:31: 準備できました 02:07:31 - 02:07:35: で目的関数を使っていきますで今回ですね 02:07:35 - 02:07:37: 目的関数色々ありましたけれども 02:07:37 - 02:07:40: 平均25誤差を算出していきたいと思い 02:07:41 - 02:07:49: 回帰の時使うものですね 02:07:49 - 02:07:53: 2乗が違いますね 02:07:53 - 02:07:55: 結構ですね 02:07:56 - 02:07:58: 平均2乗誤差 02:07:58 - 02:08:00: 英語で 02:08:00 - 02:08:02: ミースクエアードエラーって言うんですで 02:08:02 - 02:08:03: ちょっと手書きのとこで書きましたけど 02:08:03 - 02:08:06: あれ使っていきますまず 02:08:06 - 02:08:07: 平均25歳もですね 02:08:08 - 02:08:11: レール関数の時に使ったFこれですね 02:08:11 - 02:08:12: Fを 02:08:12 - 02:08:16: 持ってきます 02:08:16 - 02:08:19: MSEとしてやって 02:08:23 - 02:08:24: 計算したい 02:08:24 - 02:08:27: YとTとこれを入れてやる 02:08:27 - 02:08:32: と点数の1というふうに出てきました 02:08:32 - 02:08:34: こんな感じであの 02:08:34 - 02:08:36: 実装って意外と簡単なんですよって手書き 02:08:36 - 02:08:39: のところでもお伝えしましたがあの結構 02:08:39 - 02:08:41: 理論は理論となったりあの指揮だった 02:08:42 - 02:08:44: りっていうのは結構ややこしくてΣが出て 02:08:44 - 02:08:44: きたりとか 02:08:45 - 02:08:47: 難しいところ多かったと思うんですが 02:08:47 - 02:08:48: 意外と目的関数の 02:08:48 - 02:08:51: 計算なんてこれ1行でできてしまうという 02:08:51 - 02:08:54: 非常にシンプルなものなのでなので実装と 02:08:54 - 02:08:57: して非常に便利なんですよね 02:08:57 - 02:09:01: さあ今回ですねまずは最初この 02:09:01 - 02:09:02: ノートブック使ってやってきたこと 02:09:02 - 02:09:04: ちょっとおさらいします 02:09:04 - 02:09:07: ちょっとこの前結合層を定義しましたと 02:09:07 - 02:09:11: FCとお名前置いてNNドットリニアで3 02:09:11 - 02:09:13: 都にというふうに今回 02:09:13 - 02:09:14: 定義しましたで 02:09:14 - 02:09:17: 重みも見られますしバイアスも見られます 02:09:17 - 02:09:18: よと 02:09:18 - 02:09:20: 私と皆さんで 02:09:20 - 02:09:22: 答えが違ったら合ってるか合ってないか 02:09:22 - 02:09:24: わかりませんから何数のシードを固定する 02:09:24 - 02:09:27: という方法もありました 02:09:27 - 02:09:29: でここから 02:09:29 - 02:09:31: ノートで見てきた 02:09:31 - 02:09:34: 線形変換非線形変換で目的関数の計算と 02:09:35 - 02:09:38: 順電波の一連の流れをお伝えしてきました 02:09:38 - 02:09:41: まず線形変換ですねこれ 02:09:41 - 02:09:43: こちらでした 02:09:43 - 02:09:46: fcxとこれFCの 02:09:47 - 02:09:49: 連結放送も定義してますからこうやって 02:09:49 - 02:09:51: 簡単にできちゃうと 02:09:51 - 02:09:54: で非線形変換はまたこれ 02:09:54 - 02:09:55: インポートを通知ドットファンクショナル 02:09:55 - 02:09:58: というのこれ便利グッズがここに入ってる 02:09:58 - 02:10:00: わけです引き線形変換する上でこの後の 02:10:00 - 02:10:04: 目的関数にも使われますけどでこのFを 02:10:04 - 02:10:06: 使ってF取れるで非線形変換ができちゃう 02:10:07 - 02:10:12: で目的関数はこの1行でFMSEロストと 02:10:12 - 02:10:14: いうところでできてしまうというところ 02:10:16 - 02:10:18: 今回ですねあの計算の 02:10:18 - 02:10:22: ご紹介に今 02:10:22 - 02:10:23: 計算のご紹介をしているというところなの 02:10:24 - 02:10:26: でまだこのネットワーク 02:10:26 - 02:10:28: 組んで学習をしてっていうところはやって 02:10:28 - 02:10:31: いませんでもディープラーニングそこが 02:10:31 - 02:10:33: 本題にはなるのでこの 02:10:33 - 02:10:36: 後そこを見ていこうと思いますまずは 02:10:38 - 02:10:40: 計算の一つ一つってどういう風にするん 02:10:40 - 02:10:42: ですかっていうのを 02:10:42 - 02:10:44: 詳しく今見ていってるだけというところ 02:10:45 - 02:10:48: 全体的な流れはこの後 02:10:48 - 02:10:49: ニューロンネットワークどうやって組んで 02:10:49 - 02:10:52: でどうやって学習をしていくのかという 02:10:52 - 02:10:54: 流れはこの後さらに詳しく見ていこうと 02:10:59 - 02:11:01: 実際にネットワークの学習を行っていき 02:11:03 - 02:11:05: 実際のデータを扱います 02:11:05 - 02:11:07: 実際のデータを使って 02:11:07 - 02:11:09: ネットワークの学習を回していこうと思い 02:11:10 - 02:11:12: でですね今回使うデータなんですが 02:11:12 - 02:11:15: ちょっとこれ最初にお見せした方が 02:11:15 - 02:11:17: イメージつきやすいと思いますのでこの 02:11:17 - 02:11:21: データ使いますと何かというとあやめ 02:11:21 - 02:11:24: あやめのデータアイリスって英語で言うの 02:11:24 - 02:11:25: でこの後アイリスっていうのは出てくるの 02:11:25 - 02:11:28: で覚えていただければと思いますがこの 02:11:28 - 02:11:32: あやめの分類のタスクに取り組んでいくん