KNN与交叉检验
目录
K折交叉验证(k-fold cross validation)
留一交叉验证(leave-one-out cross validation)
KNN基础知识

KNN(K-Nearest Neighbors)算法原理
“近朱者赤,近墨者黑”——从训练数据集中找出和待预测样本最接近的K个样本,然后
投票决定待预测样本的分类;如果是回归问题,则求出K个样本的平均值作为待预测样本最
终的预测值

样本距离公式
- 欧拉距离
∑i=1n(Xi(a)−Xi(b))2
- 曼哈顿距离
∑i=1n|Xi(a)−Xi(b)|
- 明可夫斯基距离(公式中的p也是一个超参数)
(∑i=1n|Xi(a)−Xi(b)|p)1p
特征标准化问题
如果样本的多个特征值差别很大,或者样本特征的量纲不一致,导致样本间距离被某些
特征所主导,就应该考虑样本特征标准化的问题
- 最常用的特征标准化方法是:z-score标准化
xscale=x−xmeans
- z-score标准化通过sklearn中的sklearn.preprocessing.StandardScaler实现
实战——使用KNN完成鸢尾花分类预测

在sklearn中使用sklearn.neighbors.KNeighborsClassifier实现KNN分类的功能
# 加载鸢尾花数据集
iris = datasets.load_iris()
X = iris.data # 所有样本特征
y = iris.target # 所有样本标签
# 将数据集拆分成训练样本集和测试样本集
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=666)
# 样本特征标准化
std = StandardScaler()
# 通过训练样本集特征进行标准化拟合并转换
X_train_standard = std.fit_transform(X_train)
# 对于测试集,直接转换即可!
X_test_standard = std.transform(X_test)
from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=3) # 创建KNN分类器对象,K=3
knn.fit(X_train_standard,y_train) # 拟合
# 根据样本特征,对测试样本进行预测
y_predict = knn.predict(X_test_standard)
print(y_predict)
# 直接调用score方法,得出分类准确率
print(knn.score(X_test_standard,y_test))
交叉验证

什么是交叉验证(Cross Validation)
交叉验证是一种模型选择方法和调参方法,它随机地将数据集切分成三部分,分别为训
练集(training set)、验证集(validation set)和测试集(test set)。训练集用来训练模型,验证
集用于模型的选择,测试集用于最终对学习方法的评估。

K折交叉验证(k-fold cross validation)
首先随机地将已给训练数据集切分为k个互不相交的大小相同的子集;然后利用K-1个子
集的数据训练模型,利用余下的子集验证模型;将这一过程对可能的K种选择重复进行(这
一过程使用的是同一组超参数);最后通过计算K次的预测误差,对其平均便会得到1个交
叉验证误差(也就是这一组超参数的预测误差或成绩)。

留一交叉验证(leave-one-out cross validation)
留一交叉验证(留一法)是K折交叉验证的特殊情形,即:K=N,这里N是给定训练数
据集的容量。
留一法不受随机样本划分方式的影响,最接近模型真正的性能指标。因为N个样本只有
唯一的方式划分为N个子集——每个子集包含一个样本。
缺点:计算量巨大
实战——手写数字图片数据集的调参、分类识别

交叉验证使用sklearn.model_selection.cross_val_score来完成
'''
参数解释:
estimator: 需要使用交叉验证的算法
X: 样本特征
y: 样本标签
cv: 交叉验证折数
'''
cross_val_score(estimator, X, y=None,cv=None)
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
# 数据加载,展示图像
digits = datasets.load_digits()
images = digits.images # 所有图像数据
plt.gray() # 灰色图像
plt.matshow(images[0]) # 显示第一个图像
plt.show()
X = digits.data # 样本特征
y = digits.target # 样本标签
# 拆分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=666)
# 交叉验证调参开始
from sklearn.model_selection import cross_val_score
best_k,best_p,best_score = 0,0,0
for k in range(2,11): # 外层循环搜索k
for p in range(1,6): # 内层循环搜索p
knn = KNeighborsClassifier(weights="distance",
n_neighbors=k,p=p)
scores = cross_val_score(knn,X_train,y_train,cv=3) # 3折交叉验证
score = np.mean(scores) # 当前这一组超参数在验证集上的平均分
if score > best_score:
best_k,best_p,best_score = k,p,score
print("best_k=",best_k)
print("best_p=",best_p)
print("验证最好成绩:best_score=",best_score)
# 使用调好的超参数进行训练与测试
best_knn = KNeighborsClassifier(weights="distance",n_neighbors=2,p=2)
best_knn.fit(X_train,y_train)
best_knn.score(X_test,y_test) # 测试集上最终的分数
实战——使用网格搜索进行调参

什么是网格搜索
- 网格搜索可以实现自动调参并返回最佳的参数组合
- 网格搜索,搜索的是参数,即在指定的参数范围内,依次调整参数,利用调整的参数训练学习器
网格搜索的sklearn实现
- 使用sklearn.model_selection.GridSearchCV实现网格搜索
- GridSearchCV的名字可以拆分为两部分,GridSearch和CV,即网格搜索和交叉验证
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
digits = datasets.load_digits() # 加载数据集
X = digits.data # 样本特征
y = digits.target # 样本标签
# 拆分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=666)
# 网格搜索
from sklearn.model_selection import GridSearchCV
# 组装待搜索的超参数组合
param_grid = [
{
"weights":["uniform"],
"n_neighbors":[i for i in range(1,11)]
},
{
"weights":["distance"],
"n_neighbors":[i for i in range(1,11)],
"p":[i for i in range(1,6)]
}
]
knn = KNeighborsClassifier()
gs = GridSearchCV(knn,param_grid,cv=3,n_jobs=-1)
gs.fit(X_train,y_train) # 搜索最佳超参数组合
print(gs.best_params_) # 最佳超参数
print(gs.best_score_) # 最佳验证成绩
# 携带最佳超参数组合的KNeighborsClassifier对象
best_knn = gs.best_estimator_
# 使用最佳超参数组合的分类器进行拟合训练
best_knn.fit(X_train,y_train)
print("在测试集上的最终评估效果:",best_knn.score(X_test,y_test))
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)