教師なし学習

 

今回は機械学習アルゴリズムの「教師なし学習」について説明します。

教師なし学習

前回教師あり学習で説明したように、教師あり学習は「正解」が予めわかっています。例えば、この値は良性か悪性かと結果として分かった上でコンピュータに学習させます。このように正解を教えることをラベル付けと言います。
そしてラベルがないデータセット(または全て同じラベル)、つまり「正解がわからない」データを学習することを教師なし学習と言います。

データにラベルがないので、入力情報の結果からそれらを二つの異なるクラスターに属すると結論するかもしれません。 これをクラスタリングアルゴリズムと言います。これは Google検索などで使用されている手法の一つです。何十万というWeb情報から関連する記事にグループ分けすることができます。

上記の手法は他にも下記のようなものに利用されています。

  • 大規模なコンピュータ・クラスター整理
  • データセンターの稼働効率
  • ソーシャルネットワーク分析
  • 顧客情報セグメント
  • 天文学データ分析

「正解」がわからないものに対して、コンピュータに特徴を抽出してもらい、データから構造を把握することができます。

 

他にカクテルパーティー問題(カクテルパーティーアルゴリズム)というもののがあります。そこでは多数の人が同時に話しています。このとき声が重なり、音楽が流れています。そこからAさんの声だけを抽出する。音楽だけを抽出することも教師なし学習で抽出できます。これについては後でまた少しだけ説明します。(Octave言語で初心者は学習しよう)

 

「教師あり学習」と「教師なし学習」の違いのイメージが付いたでしょうか?これらは混ぜ合わせる場合もあります。説明は省略しますが下記に機械学習が行えるタスクTを記載しておきます。

  • 分類(Classification)
  • 欠損値のある入力の分類(Classification with missing inputs)
  • 回帰(Regression)
  • 転写(Transcription)
  • 機械翻訳
  • 構造出力(Structured output)
  • 異常検知(Anomaly detection)
  • 合成とサンプリング(Synthesis and sampling)
  • 欠損値補完(Imputation of missing values)
  • ノイズ除去(Denoising)
  • 密度推定(Density estimation) or 確率質量関数推定(Probability mass function estimation)

 

次はこれらを使用するための方法の一つ「線形回帰」について説明します。