2018年10月29日

機械学習入門 ボルツマン機械学習から深層学習まで

本日は大関真之 氏の
機械学習入門 ボルツマン機械学習から深層学習まで
です。


本書は機械学習をイラストと会話形式で
わかりやすく説明する、
というコンセプトの一冊です。

「機械学習って何?」というレベルから
ボルツマン機械学習とディープラーニングで
やっていることをイメージできるようになるでしょう。

機械学習は使っている数学は非常に難解です。
だから、本書のようにまずは図を通じて
イメージできることが大事だと思います。

そんなイメージを植えつけてくれる良書です。


個人的には
正則化や過学習の説明の部分が
特にわかりやすかったと思いました。

数学を複雑にすればあわせられるけれども
それでは意味がない、ということが
とても分かりやすく書かれてました。


機械学習を学ぶ人が
最初に読む一冊としてお勧めです。
まずは「機械学習とは何か?」を
つかむことができるでしょう。




機械学習で行っていることは、
入力されたものと出力されたものの関係を
捉えることです。
つまりその入出力関係のルールを
読み取るということです。


データをあるがまま見るのではなく、
分けた後のグループを見ることで
わかることもあるわけです。


微分はあくまでちょっと変化した時に
どうズレていくかということを調べただけです。
ちょっとまわりのことしか調べていないのですから、
遠くのことまでは知らないっていうことになります。


一部のことから全体のことを評価する性能を
汎化性能っていいます。
その汎化性能が良くなるように工夫をするのが
機械学習のコツです。


やたらめったら複雑な関数を使っても、
ただ大変になるだけです


関数に複雑さを求めずに、
組み合わせ方で複雑にします


最適化問題を解く際に、
基本的には誤差関数を意識して、
忠実にデータと出力をあわせようとします。
それ以外に別の要請をしながら、
パラメータの最適化を行うことを正則化といいます。


訓練データとテストデータは違うものなんですから、
きっちり訓練データに合わせても意味がない。
それよりもテストデータに合わせる余裕が重要です。
その意味では訓練データに合わせるのは
適当にした方がいいんです。


バッチ学習でも中身はオンライン学習と
同じっていうのが現在のトレンドですね。
確率勾配法といいます。


真面目に学習していると、
限界のように勘違いするんですけど、あれ?
もしかしてこっちに抜け出したらうまくいく?
って気付く現象が経験的に発見されました。
それを早く引き出すために適当にやるという
遊びがあった方がいいんです


多層ニューラルネットワークを使う場合でも、
最終的な出力結果のところに、
ヘヴィサイド関数をつけてあげれば、
収穫できなかったところを0、
収穫できたところを1として出力するようになります。


本当に文字通り、グシャっと変形するんですよ。
そのうまい変形の仕方を探して、
直線で仕切られるように地図を変えていくんです


行列は見かけだおしで、実はその構成要素である
数学そのものではなく、パターンの形と
その配置やパターンが出ている
度合いが重要であるということですか


一見データは複雑で、それに合わせるために
用意したモデルが複雑では、
人間に理解できる形ではない。
でもどこかで物事にはきっと単純な
ルールがあるんじゃないかって密かに期待している。
そこで重要ではない要素をゼロにしていくという
技術が役に立つというわけです


データの本質を探すためにゼロを探すというわけです。
そうやってほとんどがゼロになっている状況を
スパースといいます。
そしてそのように仕向ける方法論を
スパースモデリングといって、
世界中で研究が進んでいる注目の技術ですよ


ボルツマン機械学習では、自分でデータを
ポンポンと仮に作り出してみるんですよ。
サンプリングっていいます


画像の研究は進んでいて、画像に適切な
ニューラルネットワークというのがあるんです。
畳み込みニューラルネットワークといいます。







engineer_takafumi at 01:42│Comments(0) ★理系本の書評 | ⇒ コンピュータ・情報科学

コメントする

名前
 
  絵文字