機械学習アルゴリズムの分類と実装まとめ

2021.05.17
2024.03.24
機械学習
KerasLightGBMPythonscikit-learn

はじめに

こちらの記事はQiitaで投稿した「機械学習アルゴリズムの分類と実装まとめ」の再投稿になります。

機械学習の分類とそれらのアルゴリズムのライブラリを用いた簡単な実装をまとめました。

各アルゴリズムのコードはサンプルデータまで含めているので、そのまま実行することができます。 必要最低限のパラメータしか設定していないので、細かい設定は公式ドキュメントなど参照して設定してください。

それぞれのアルゴリズムについては、簡単な説明は載せてますが、詳しい説明はしていません。

対象読者

  • 機械学習アルゴリズムの分類を知りたい
  • 機械学習アルゴリズムを実装して動かしたい

ゴール

  • 機械学習のアルゴリズムの分類がわかる
  • 機械学習アルゴリズムの実装ができる

機械学習の分類

機械学習は以下のように分類されます。

  • 教師あり学習
    • 回帰
    • 分類
  • 教師なし学習
  • 強化学習

image.png 今回は、強化学習の実装は扱いません。

教師あり学習

教師あり学習は、特徴を表すデータ(特徴量、説明変数)と答えとなるデータ(ラベル、目的変数)から問題の答えを学習させる手法です。

教師あり学習は、以下の2つに分類されます。

  • 回帰:連続した数値を予測
    • 身長の予測など
  • 分類:順番のないラベルを予測
    • 性別の予測など

利用データ

実装で利用するデータについて、簡単に説明します。

ここでは、scikit-learnのサンプルデータを利用します。 利用するデータは、回帰と分類で以下の通りです。

アルゴリズム

教師あり学習のアルゴリズムについて、紹介していきます。 それぞれのアルゴリズムで、回帰と分類どちらに適用できるか記載しています。

線形回帰

  • 回帰

特徴量が大きくなるほど、目的変数が大きく(小さく)なる関係をモデル化する手法。

公式ドキュメント

1from sklearn.datasets import load_boston
2from sklearn.model_selection import train_test_split
3from sklearn.linear_model import LinearRegression
4
5# データの読み込み
6boston = load_boston()
7X = boston['data']
8y = boston['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = LinearRegression()
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)

ロジスティック回帰

  • 分類

ある事象が起こる確率を学習する手法。

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.model_selection import train_test_split
3from sklearn.linear_model import LogisticRegression
4
5# データの読み込み
6wine = load_wine()
7X = wine['data']
8y = wine['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = LogisticRegression()
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)

ランダムフォレスト

  • 回帰
  • 分類

複数の決定木から多数決で予測する手法。

回帰版

公式ドキュメント

1from sklearn.datasets import load_boston
2from sklearn.model_selection import train_test_split
3from sklearn.ensemble import RandomForestRegressor
4
5# データの読み込み
6boston = load_boston()
7X = boston['data']
8y = boston['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = RandomForestRegressor(random_state=0)
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)
分類版

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.model_selection import train_test_split
3from sklearn.ensemble import RandomForestClassifier
4
5# データの読み込み
6wine = load_wine()
7X = wine['data']
8y = wine['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = RandomForestClassifier(random_state=0)
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)

サポートベクターマシン

マージンを最大化することでより良い決定境界を得る手法。

  • 回帰
  • 分類
回帰版

公式ドキュメント

1from sklearn.datasets import load_boston
2from sklearn.model_selection import train_test_split
3from sklearn.svm import SVR
4
5# データの読み込み
6boston = load_boston()
7X = boston['data']
8y = boston['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = SVR(kernel='linear', gamma='auto')
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)
分類版

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.model_selection import train_test_split
3from sklearn.svm import SVC
4
5# データの読み込み
6wine = load_wine()
7X = wine['data']
8y = wine['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = SVC(gamma='auto')
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)

kNN

学習データを全て覚えて、予測したいデータと距離の近いk個のデータから多数決をする手法。

  • 回帰
  • 分類
回帰版

公式ドキュメント

1from sklearn.datasets import load_boston
2from sklearn.model_selection import train_test_split
3from sklearn.neighbors import KNeighborsRegressor
4
5# データの読み込み
6boston = load_boston()
7X = boston['data']
8y = boston['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = KNeighborsRegressor(n_neighbors=3)
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)
分類版

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.model_selection import train_test_split
3from sklearn.neighbors import KNeighborsClassifier
4
5# データの読み込み
6wine = load_wine()
7X = wine['data']
8y = wine['target']
9X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
10
11model = KNeighborsClassifier(n_neighbors=3)
12model.fit(X_train, y_train)
13
14score = model.score(X_test, y_test)
15
16print('score is', score)

ニューラルネットワーク

入力層、隠れ層、出力層からなる構造をもつ人間の脳の神経回路を模倣した手法。

  • 回帰
  • 分類

公式ドキュメント

回帰版
1from sklearn.datasets import load_boston
2from sklearn.model_selection import train_test_split
3from tensorflow.keras import models
4from tensorflow.keras import layers
5
6# データの読み込み
7boston = load_boston()
8X = boston['data']
9y = boston['target']
10X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
11
12model = models.Sequential()
13model.add(layers.Dense(64, activation='relu', input_shape=(X_train.shape[1],)))
14model.add(layers.Dense(64, activation='relu'))
15model.add(layers.Dense(1))
16model.compile(optimizer='rmsprop', loss='mse', metrics=['mae'])
17
18model.fit(X_train, y_train)
19
20mse, mae = model.evaluate(X_test, y_test)
21
22print('MSE is', mse)
23print('MAE is', mae)
分類版
1from sklearn.datasets import load_wine
2from sklearn.model_selection import train_test_split
3from tensorflow.keras import models
4from tensorflow.keras import layers
5from tensorflow.keras import utils
6
7# データの読み込み
8boston = load_wine()
9X = boston['data']
10y = utils.to_categorical(boston['target'])
11X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
12
13model = models.Sequential()
14model.add(layers.Dense(64, activation='relu', input_shape=(X_train.shape[1],)))
15model.add(layers.Dense(64, activation='relu'))
16model.add(layers.Dense(3, activation='softmax'))
17model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy'])
18
19model.fit(X_train, y_train)
20
21crossentropy, acc = model.evaluate(X_test, y_test)
22
23print('Categorical Crossentropy is', crossentropy)
24print('Accuracy is', acc)

勾配ブースティング

複数のモデルを学習させるアンサンブル学習の1つ。 一部のデータを繰り返し抽出し、逐次的に複数の決定木モデルを学習させる手法。

  • 回帰
  • 分類

公式ドキュメント

回帰版
1from sklearn.datasets import load_boston
2from sklearn.model_selection import train_test_split
3from sklearn.metrics import mean_squared_error
4import lightgbm as lgb
5import numpy as np
6
7# データの読み込み
8wine = load_boston()
9X = wine['data']
10y = wine['target']
11X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
12
13lgb_train = lgb.Dataset(X_train, y_train)
14lgb_eval = lgb.Dataset(X_test, y_test)
15
16params = {
17    'objective': 'regression',
18    'metric': 'mse',
19}
20num_round = 100
21
22model = lgb.train(
23    params,
24    lgb_train,
25    valid_sets=lgb_eval,
26    num_boost_round=num_round,
27)
28
29y_pred = model.predict(X_test)
30
31score = mean_squared_error(y_test, y_pred)
32
33print('score is', score)
分類版
1from sklearn.datasets import load_wine
2from sklearn.model_selection import train_test_split
3from sklearn.metrics import accuracy_score
4import lightgbm as lgb
5import numpy as np
6
7# データの読み込み
8wine = load_wine()
9X = wine['data']
10y = wine['target']
11X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
12
13lgb_train = lgb.Dataset(X_train, y_train)
14lgb_eval = lgb.Dataset(X_test, y_test)
15
16params = {
17    'objective': 'multiclass',
18    'num_class': 3,
19}
20num_round = 100
21
22model = lgb.train(
23    params,
24    lgb_train,
25    valid_sets=lgb_eval,
26    num_boost_round=num_round,
27)
28
29pred = model.predict(X_test)
30y_pred = []
31for p in pred:
32    y_pred.append(np.argmax(p))
33
34score = accuracy_score(y_test, y_pred)
35
36print('score is', score)

教師なし学習

教師なし学習は、答えとなるデータがなく、特徴を表すデータのみから学習させる手法です。

利用データ

教師なし学習の利用では、教師あり学習で使用したワインの品質のデータです。

アルゴリズム

教師なし学習のアルゴリズムについて、紹介していきます。

K-means

クラスタリング手法の1つ。 k個のクラスにデータをまとめる手法。

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.cluster import KMeans
3
4# データの読み込み
5wine = load_wine()
6X = wine['data']
7
8model = KMeans(n_clusters=3, random_state=0)
9model.fit(X)
10
11print("labels: \n", model.labels_)
12print("cluster centers: \n", model.cluster_centers_)
13print("predict result: \n", model.predict(X))

混合ガウス分布

クラスタリング手法の1つ。 データが複数のガウス分布から生成されたとみなし、どのガウス分布に属するかで分類する手法。

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.mixture import GaussianMixture
3
4# データの読み込み
5wine = load_wine()
6X = wine['data']
7
8model = GaussianMixture(n_components=4)
9model.fit(X)
10
11print("means: \n", model.means_)
12print("predict result: \n", model.predict(X))

主成分分析

次元削減手法の1つ。 多数の変数から、データの特徴を保ちながらより少ない変数(主成分)でデータを表現する手法。

公式ドキュメント

1from sklearn.datasets import load_wine
2from sklearn.decomposition import PCA
3
4# データの読み込み
5wine = load_wine()
6X = wine['data']
7
8model = PCA(n_components=4)
9model.fit(X)
10
11print('Before Transform:', X.shape[1])
12print('After Transform:', model.transform(X).shape[1])

まとめ

  • 教師あり学習は回帰と分類に分けられる
  • 教師なし学習はいくつか種類がある
  • 試すぐらいであれば少しのコードで機械学習ができる
  • パラメータはいくつかあるため必要に応じて公式ドキュメントを参照する

教師なし学習、強化学習についてはまだまだ勉強不足だったので、これから勉強していきます。

参考文献

Support

\ この記事が役に立ったと思ったら、サポートお願いします! /

buy me a coffee
Share

Profile

author

Masa

都内のIT企業で働くエンジニア
自分が学んだことをブログでわかりやすく発信していきながらスキルアップを目指していきます!

buy me a coffee