6. ロジスティック回帰 (Logistic Regression)#
import numpy as np
import pandas as pd
import plotly.express as px
from plotly.subplots import make_subplots
import plotly.figure_factory as ff
import plotly.graph_objects as go
import plotly.io as pio
6.1. はじめに#
このノートでは二値分類に利用される「ロジスティック回帰」について勉強します。
まずはロジスティック回帰の中で利用されるロジスティック関数について復習し、その後、ロジスティック回帰とはどのようなものなのかを紹介します。
6.1.1. そもそもロジスティック関数とは#
ロジスティック関数 (\(\sigma:\mathbb{R}\rightarrow (0,1)\)):
ロジスティック関数をPythonで実装すると、以下の様になります。
def logistic_sigmoid(x:np.array, a:float=1.0)->float:
"""
x: Iput
a: Gain
"""
#assert a>0.0, "Gain `a` must be greater than 0."
return 1.0 / (1.0 + np.exp(-a*x))
また、ロジスティック関数の返り値がどのようなグラフを描くのかを確認してみましょう。
ここでは作図にplotlyを利用したので、グラフの表示範囲を自分で変更して観察してください。
x = np.linspace(-20,20, 50)
y = logistic_sigmoid(x, a=1)
sample_df = pd.DataFrame({"Input x":x,
"Output y": y})
logistic_sigmoid_fig = px.line(data_frame=sample_df,
x="Input x",y="Output y",
width=800, height=800,
markers=True,
title="Logistic Sigmoid Function"
)
logistic_sigmoid_fig.show()
ここでロジスティック関数と呼んでいる関数にはa
という引数があります。この値はgainを示していて、上のプロットは\(a=1\)の場合のものです。
この\(a=1\)の特殊な状態のとき、「標準シグモイド関数」または「標準ロジスティック関数: Standard logistic function」と呼ばれます。
また機械学習の分野ではこの標準シグモイド関数を単に「シグモイド関数」と呼ぶ事が多いです。
(参考: https://atmarkit.itmedia.co.jp/ait/articles/2003/04/news021.html)
「シグモイド」とは「ギリシア語のシグマの語末形(アルファベットでいうとS)に似た形」を表す言葉なので、ロジスティック・シグモイド関数以外にもシグモイド関数は存在します。しかしそれでも機械学習の分野では、標準シグモイド関数を単にシグモイド関数と呼びます(実際それ以外の呼び方をしている人を見たことがない…)
(参考: https://kenichia.hatenablog.com/entry/2017/03/04/122551)
gainはグラフのS字カーブをきつくしたり、ゆるくしたりするためのパラメータとして機能します。
実際に以下のプロットで、gain a
スライダーを操作して確認してみましょう。
gainが0に近い時はx軸に平行に近い直線のような形を取り、gainを徐々に大きくするとS字になっていきます。更にgainを大きくするとS字の勾配が大きくなり、最終的にステップ関数に近い形になることがわかります。
Show code cell source
def get_sigmoid_df(a:float=0.1):
x = np.linspace(-20,20, 50)
y = logistic_sigmoid(x, a=a)
sigmoid_df = pd.DataFrame({"Input x":x,
"Output y": y})
sigmoid_df["Gain a"] = a
return sigmoid_df
# animation用のdataframeを作成
sample_df_for_animation = pd.concat([get_sigmoid_df(a) for a in np.linspace(-10.0, 10.0, 100)])
# animationの作成
logistic_sigmoid_animation = px.line(data_frame=sample_df_for_animation,
x="Input x",y="Output y", animation_frame="Gain a",
width=800, height=800,
markers=True,
title="GainとLogistic Sigmoid Functionの関係",
range_x=[-20,20], range_y=[0,1],
#render_mode="webgl",
)
# frame補間を消す
logistic_sigmoid_animation.layout.updatemenus[0].buttons[0].args[1]["transition"]['duration'] = 0
# 描画
logistic_sigmoid_animation.show()
6.1.2. ロジスティック回帰とは#
ロジスティック回帰(Logistic Regression)とは、__目的変数(ラベル,label,予測したい値のこと)\(y\) が2値データ(バイナリデータ, binary data, 例えば\(y=0,1\))の場合、実数値を取る目的変数\(x\)に対する予測モデルの一種です。
例として、ある数値レベル\(x\)について個体が反応したら\(y=1\)、無反応なら\(y=0\)と対応された\(N\)組のデータが観測されたとします。
何個目の組のペアなのかを数式上で分かりやすくするために、各変数の肩に組番号を書いています。
このようなバイナリの目的変数に対して、数値レベル\(x\)に対する反応確率\(p\)を推定するモデルの構築を考えましょう。 ここで、反応したかを表す確率変数\(Y\)を導入すると、数値レベル\(x\)に対する反応確率は\(\operatorname{P}(Y=1|x)=p\)と表され、非反応確率は\(\operatorname{P}(Y=0|1)=1-p\)と表されます。 モデルを構築するためには、反応確率\(p\)の関数の形を考える必要があります。\(p\)は確率ですから、取り得る範囲は\(0\leq p \leq 1\)となります。 また、反応を引き起こす要因\(x\)は実数値\(-\infty \leq x \leq \infty\)です。
このような\(x\)と\(p\)を結びつける関数として、ロジスティック関数\(\sigma(\cdot)\)を用いるのが「ロジスティックモデル」です。すなわち、ロジスティックモデルでは反応確率\(p\)はパラメータ\(w_0, w_1\)を用いて、次の用に表されます。
観測された\(n\)組のデータに基づいてパラメータ\(w_0, w_1\)の値を推定すれば、任意の数値レベル\(x\)に対して反応する確率を出力するモデルが定まります。ここではパラメータを\(w_0,w_1\)としていますが、\(w_0\)はNeural Networkでよく見かけるbiasの役割を果たします。
6.2. ロジスティックモデルの推定#
上記では一種類の説明変数\(x\)に関する記述でしたが、もう少し一般的に、\(F\)個の説明変数に対して目的変数\(y\)が従う確率の推定を考えます。 今、\(F\)個の説明変数\( x_{1}, x_{2}, \ldots, x_{F}\)と目的変数\(y\)について、観測された\(n\)番目のデータを
とします。先程と同様に確率変数\(Y\)を導入すると、反応確率、非反応確率はそれぞれ
となり、そして説明変数\( x_{1}, x_{2}, \ldots, x_{F}\)と反応確率\(p\)との関係を
によって結びつけます。 ここで、\(\boldsymbol{w},\boldsymbol{x}\)はそれぞれ以下の通りです。
ロジスティック回帰のモデルを、ニューラルネットワークの様に表すと以下のようになります。(図中で使われている記号が、今回の解説で利用しているものと異なります。参考程度に見てください。)
(参考: https://www.hellocybernetics.tech/entry/2016/05/22/215529)
よって先程示した反応確率、非反応確率はそれぞれ以下のように書けますね。
ここでは観測された\(N\)組のデータに基づいてパラメータベクトル\(\boldsymbol{w}\)の値を推定しましょう。最尤法を用いてパラメータ推定を行う事を考えます。
今、\(n\)番目のデータに関しては、反応したか否かを示す確率変数\(Y^{(n)}\)と実現値\(y^{(n)}\)の組からなります。 そこで、\(n\)番目のデータに対する真の反応確率を\(p^{(n)}\)とすると、反応確率、非反応確率はそれぞれ次のようになります。
上の式を見ると、この問題は歪なコインの問題であることが想像できますね。
※離散確率分布の相互関係
ピンクの線が多次元変数への一般化で、オレンジの線が複数回の試行を行った場合に対する一般化です。グレーの点線矢印は、それぞれの確率分布に対する共役の関係性を示しています(矢印の元に当たるのが共役事前分布(conjugate prior)です)。
(引用: ややこしい離散分布に関するまとめ - 作って遊ぶ機械学習。 https://machine-learning.hatenablog.com/entry/2016/03/26/211106 )
つまり、確率変数\(Y^{(n)}\)が従う確率分布は次のベルヌーイ分布である事がわかります。
従って、\(y^{(1)}, y^{(2)}, \dots, y^{(N)}\)という\(N\)回の試行に基づく尤度関数は、サンプリングされた学習データの独立性(i.i.d標本)より、次式となります。
\(p\)はパラメータベクトル\(\boldsymbol{w}\)と説明変数\(\boldsymbol{x}\)の関数であり、学習可能なパラメータは\(\boldsymbol{w}\)でした。 よってこの\(p\)を含む尤度関数\(L\)はパラメータ\(\boldsymbol{w}\)の関数である事がわかります。
この尤度を最大とするパラメータが、求めたい推定値\(\boldsymbol{w}^*\)です。 そこで、対数尤度を最大化するようにパラメータ\(\boldsymbol{w}\)を決定しましょう。
最終行でマイナスをつけているので、上は最小化問題に変化していることに注意してください。
最終行の項を\(J(\boldsymbol{w})\)と置くことにします。
またこの\(J(\boldsymbol{w})\)のような、モデルのパラメータを訓練するために値を小さくしたい関数を損失関数(Loss Function)、または目的関数(Objective Function)と呼びます。
x = np.linspace(0,10, 50)
sample_df = pd.DataFrame({"W^T・x":x,
"CrossEntropy": np.log(1 + np.exp(-x)),
})
likelihood_fig = px.line(data_frame=sample_df,
x="W^T・x",y="CrossEntropy",
width=800, height=800,
markers=True,
title="J(w)の第二項について"
)
likelihood_fig.show()
上記より、\(J(\boldsymbol{w})\)を最小とする\(\boldsymbol{w}\)こそが求めたい推定値\(\boldsymbol{w}^*\)です。
さて、推定値\(\boldsymbol{w}\)を解析的に陽に表現する事は難しいです。 この場合、ニュートン-ラフソン法や最急降下法などの方法で推定値を求める事が可能です。ここでは、今後のニューラルネットワークの解説へ繋げるために、最急降下法を用いることにします。
最急降下法では、ランダムにパラメータの初期値\(\boldsymbol{w}^{[0]}\)を設定し、下記のように微分によるマイナスをつけた下降方向にパラメータを更新していきます。
▲最急降下法のイメージ。ちょっとずつ\(w\)の値を更新し、損失関数\(J\)の谷を探す
6.3. 最適なモデルパラメータの計算#
\(\require{cancel}\)
偏微分\(\frac{\partial J(\boldsymbol{w})}{\partial \boldsymbol{w}}\)の値を計算するために、\(J(\boldsymbol{w})\)を整理します。
( \(\varepsilon\)も\(\epsilon\)と同じepsilonです)
上式を\( \boldsymbol{w}\)で偏微分したいわけですが、少々煩雑できので、合成関数の微分(チェインルール, Chain Rule)を用いることにします。
\(u^{(n)}= \boldsymbol{w}^{\mathsf{T}}\boldsymbol{x}^{(n)}\)として次式へ分解します。
チェインルールの左側の偏微分\(\frac{\partial \varepsilon^{(n)}}{\partial u^{(n)}}\)を計算します。
今、\(\varepsilon^{(n)}(\boldsymbol{w})= (1-y^{(n)})\boldsymbol{w}^\mathsf{T}\boldsymbol{x}^{(n)} + \log (1 + \exp(-\boldsymbol{w}^\mathsf{T}\boldsymbol{x}^{(n)}))\)より、\[\begin{split} \begin{align} \frac{\partial \varepsilon^{(n)}}{\partial u^{(n)}} &= \frac{\partial}{\partial u^{(n)}} [ (1-y^{(n)})u^{(n)} + \log (1 + \exp(-u^{(n)})) ] \\ &= (1-y^{(n)}) – \frac{\exp(-u^{(n)})}{1 + \exp(-u^{(n)})} \\ &= (1 – \frac{\exp(-u^{(n)})}{1 + \exp(-u^{(n)})}) – y^{(n)} \\ &= \frac{1}{1 + \exp(-u^{(n)})} – y^{(n)} \\ &\,\downarrow \textstyle{(ロジスティック関数の式が出てきたからp^{(n)} = \frac{1}{1+\exp(-u^{(n)})}を代入)} \\ &= p^{(n)} – y^{(n)}.\label{eq:pd_epsilon} \end{align} \end{split}\]チェインルールの右側の偏微分\(\frac{\partial u^{(n)}}{\partial \boldsymbol{w}}\)を計算します。
(ベクトルの掛け算、ここではただ掛け算が沢山並んでいるだけなので難しく考えないでOKです。) $\(\begin{align} \frac{\partial u^{(n)}}{\partial \boldsymbol{w}} &= \frac{\partial (\boldsymbol{w}^\mathsf{T} \boldsymbol{x}^{(n)})}{\partial \boldsymbol{w}} \\ &= \boldsymbol{x}^{(n)}\ \ \because \text{(ベクトル微分の公式)}.\label{eq:pd_u} \end{align}\)$
以上より以下が求まります。
どうせならforward propergationで出てくるものに変えたいのでPを入れる
6.4. 最適なモデルパラメータの行列表記#
6.5. ロジスティック回帰の実装#
TODO:
学習中のロスの可視化
学習中の境界の推移の可視化
irisの箱ひげ、pairplot
class LogisticRegression:
"""ロジスティック回帰実行クラス
Attributes
----------
eta : float
学習率
epoch : int
エポック数
random_state : int
乱数シード
is_trained : bool
学習完了フラグ
num_samples : int
学習データのサンプル数
num_features : int
特徴量の数
w : NDArray[float]
パラメータベクトル
costs : NDArray[float]
各エポックでの損失関数の値の履歴
Methods
-------
fit -> None
学習データについてパラメータベクトルを適合させる
predict -> NDArray[int]
予測値を返却する
"""
def __init__(self, eta=0.01, n_iter=50, random_state=42):
self.eta = eta
self.n_iter = n_iter
self.random_state = random_state
self.is_trained = False
def fit(self, X, y):
"""
学習データについてパラメータベクトルを適合させる
Parameters
----------
X : NDArray[NDArray[float]]
学習データ: (num_samples, num_features)の行列
y : NDArray[int]
学習データの教師ラベル: (num_features, )のndarray
"""
self.num_samples = X.shape[0] # サンプル数
self.num_features = X.shape[1] # 特徴量の数
# 乱数生成器
rgen = np.random.RandomState(self.random_state)
# 正規乱数を用いてパラメータベクトルを初期化
self.w = rgen.normal(loc=0.0, scale=0.01, size=1+self.num_features)
self.costs = [] # 各エポックでの損失関数の値を格納する配列
# パラメータベクトルの更新
for _ in range(self.n_iter):
net_input = self._net_input(X)
output = self._activation(net_input)
# 式(2)
self.w[1:] += self.eta * X.T @ (y - output)
self.w[0] += self.eta * (y - output).sum()
# 損失関数: 式(1)
cost = (-y @ np.log(output)) - ((1-y) @ np.log(1-output))
self.costs.append(cost)
# 学習完了のフラグを立てる
self.is_trained = True
def predict(self, X):
"""
予測値を返却する
Parameters
----------
X : NDArray[NDArray[float]]
予測するデータ: (any, num_features)の行列
Returens
-----------
NDArray[int]
0 or 1 (any, )のndarray
"""
if not self.is_trained:
raise Exception('This model is not trained.')
return np.where(self._activation(self._net_input(X)) >= 0.5, 1, 0)
def _net_input(self, X):
"""
データとパラメータベクトルの内積を計算する
Parameters
--------------
X : NDArray[NDArray[float]]
データ: (any, num_features)の行列
Returns
-------
NDArray[float]
データとパラメータベクトルの内積の値
"""
return X @ self.w[1:] + self.w[0]
def _activation(self, z):
"""
活性化関数(シグモイド関数)
Parameters
----------
z : NDArray[float]
(any, )のndarray
Returns
-------
NDArray[float]
各成分に活性化関数を適応した (any, )のndarray
"""
return 1 / (1 + np.exp(-np.clip(z, -250, 250)))
import plotly.express as px
iris_df = px.data.iris()
iris_pairplot = px.scatter_matrix(
iris_df,
dimensions=["sepal_width", "sepal_length", "petal_width", "petal_length"],
color="species",
width=800,height=800,
)
iris_pairplot.show()
from sklearn.preprocessing import StandardScaler
# 標準化のインスタンスを生成(平均=0, 標準偏差=1 に変換)
sc = StandardScaler()
X = sc.fit_transform(iris_df.iloc[:,:4].values)
from sklearn.model_selection import train_test_split
y = iris_df.species_id
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=10, stratify=y)
# ロジスティック回帰モデルの学習
lr = LogisticRegression(eta=0.5, n_iter=1000, random_state=3)
lr.fit(X_train, y_train)
get_acc = lambda X,y: (lr.predict(X) == y).sum() / y_test.shape[0]
print("テスト正答率:",get_acc(X_test, y_test))
テスト正答率: 0.03333333333333333
/var/folders/zn/y387lxqx5zx7j4t_3b0v0bg80000gn/T/ipykernel_20683/1010219198.py:62: RuntimeWarning:
divide by zero encountered in log
lr.predict(X_train)
print("テスト正答率:",get_acc(X_train, y_train))
テスト正答率: 0.16666666666666666