a.出力値$ \hat{y} $を計算する
b.重みを更新する
$ y^{(i)} $:本当のクラスラベル
$ \hat{y}^{(i)} $:予測されたクラスラベル
In [45]:
import numpy as np
class Perceptron(object):
"""
eta: 学習率(0.0<eta<1.0)
n_iter: トレーニング回数
"""
def __init__(self, eta=0.01, n_iter=10):
self.eta = eta
self.n_iter = n_iter
def fit(self, X, y):
"""
X: トレーニングデータ(pandas, 行にサンプル、列に特徴量)
Y: 目的変数(pandas)
"""
self.w_ = np.zeros(1 + X.shape[1])
self.errors_ = []
for ite in range(self.n_iter):
#print('w:', self.w_)
errors = 0
for xi, target in zip(X, y):
#print('xi:', xi)
#重みw1,...,wmの更新
predict = self.predict(xi)
update = self.eta * (target - predict)
#print('target:', target, ' predict:', predict, ' update:', update)
self.w_[1:] += update * xi
# 重みw0の更新
self.w_[0] += update
# 重みの更新が0でない場合は誤分類としてカウント
error = int(update != 0.0)
#print('error:', error)
errors += error
# 反復回数ごとの誤差を格納
print(ite, ': ', errors)
self.errors_.append(errors)
return self
def net_input(self, X):
"""総入力を計算"""
result = np.dot(X, self.w_[1:]) + self.w_[0]
#print('w_', self.w_)
#print('net_input_result:', result)
return result
def predict(self, X):
"""1ステップ後のクラスラベルを返す"""
return np.where(self.net_input(X) >= 0.0, 1, -1)
In [2]:
# 重み更新
print('重み更新あり', int (0.5 != 0.0))
print('重み更新なし', int (0.0 != 0.0))
In [10]:
import numpy as np
data = np.array([100, 200, 300, 400, 500])
# 値を取得
print(data[data < 300])
# インデックスを取得
print(np.where(data < 300))
# 真の場合、偽の場合で1, -1を返す
print(np.where(data < 300, 1, -1))
In [17]:
import pandas as pd
import matplotlib.pyplot as plt
import numpy as np
df = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data', header=None)
print(df.tail())
y = df.iloc[0:100, 4].values
y = np.where(y == 'Iris-setosa', -1,1)
X = df.iloc[0:100, [0, 2]].values
plt.scatter(X[:50,0], X[:50,1], color='red', marker='o', label='setosa')
plt.scatter(X[50:100,0], X[50:100,1], color='blue', marker='x', label='versicolor')
plt.xlabel('sepal length [cm]')
plt.ylabel('sepal length [cm]')
plt.legend(loc='upper left')
plt.show()
In [50]:
# トレーニング
ppn = Perceptron(eta=0.1, n_iter=10)
ppn.fit(X, y)
plt.plot(range(1, len(ppn.errors_) + 1), ppn.errors_, marker='o')
plt.xlabel('Epochs')
plt.ylabel('Number of misclassifications')
plt.show()
In [61]:
from matplotlib.colors import ListedColormap
def plot_decision_regions(X, y, classifier, resolution = 0.02):
# マーカーとカラーマップの準備
markers = ('s', 'x', 'o', '^','v')
colors = ('red', 'blue', 'lightgreen', 'grey', 'cyan')
cmap = ListedColormap(colors[:len(np.unique(y))])
#決定領域のプロット
#X[:, 0]とやるとPandasのdataframeから各要素の0番目を取得できる
x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1
#グリッドポイントの生成
xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, resolution), np.arange(x2_min, x2_max, resolution))
#予測実行
z = classifier.predict(np.array([xx1.ravel(), xx2.ravel()]).T)
#予測結果を元のグリッドポイントのデータサイズに変換
Z = z.reshape(xx1.shape)
#グリッドポイントの等高線のプロット
plt.contourf(xx1,xx2,Z,alpha=0.4,cmap=cmap)
#軸の範囲の指定
plt.xlim(xx1.min(), xx1.max())
plt.ylim(xx2.min(), xx2.max())
#クラスごとにサンプルをプロット
for idx, cl in enumerate(np.unique(y)):
plt.scatter(x=X[y == cl, 0], y=X[[y==cl, 1]], alpha=0.8, c=cmap(idx), marker=markers[idx],label=cl)
plot_decision_regions(X, y, classifier=ppn)
plt.xlabel('sepal length')
plt.xlabel('petal length')
plt.legend(loc='upper left')
plt.show()
In [54]:
x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1
resolution = 1
print(np.arange(x1_min, x1_max, resolution))
print(np.arange(x2_min, x2_max, resolution))
print(np.meshgrid(np.arange(x1_min, x1_max,resolution) , np.arange(x2_min, x2_max, resolution)))
In [ ]: