KNN分类算法

╰半夏微凉° 2022-10-29 09:09 245阅读 0赞

KNN分类算法

最简单最初级的分类器,就是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类

K近邻(k-nearest neighbour, KNN)是一种基本分类方法,通过测量不同特征值之间的距离进行分类。它的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别,其中K通常是不大于20的整数

KNN算法中,所选择的邻居都是已经正确分类的对象
在这里插入图片描述

KNN示例

绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?

如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类

KNN算法的结果很大程度取决于K的选择
在这里插入图片描述

KNN距离计算

KNN中,通过计算对象间距离来作为各个对象之间的非相似性指标,避免了对象之间的匹配问题,在这里距离一般使用欧氏距离或曼哈顿距离:

在这里插入图片描述
在这里插入图片描述

KNN算法

在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类,其算法的描述为:

  • 计算测试数据与各个训练数据之间的距离;
  • 按照距离的递增关系进行排序;
  • 选取距离最小的K个点;
  • 确定前K个点所在类别的出现频率;
  • 返回前K个点中出现频率最高的类别作为测试数据的预测分类。

代码实现

  1. ## KNN算法代码实现
  2. ### 0.引入依赖
  3. import numpy as np
  4. import pandas as pd
  5. #这里直接引入sklearn里面的数据集,iris鸢尾花
  6. from sklearn.datasets import load_iris
  7. from sklearn.model_selection import train_test_split #切分数据集为训练集和测试集的方法
  8. from sklearn.metrics import accuracy_score #计算分类预测的准确率
  9. ### 1.数据加载和预处理
  10. iris = load_iris()
  11. df = pd.DataFrame(data = iris.data, columns = iris.feature_names)
  12. df['class'] = iris.target
  13. df['class'] = df['class'].map({ 0:iris.target_names[0], 1:iris.target_names[1], 2:iris.target_names[2]})
  14. df.tail(10)
  15. df.describe()
  16. x = iris.data
  17. y = iris.target.reshape(-1,1)
  18. # 划分训练集和测试集
  19. x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=35, stratify=y)

在这里插入图片描述

  1. ### 2.核心算法实现
  2. # 定义距离函数
  3. def l1_distance(a , b):
  4. return np.sum(np.abs(a-b) ,axis=1)
  5. def l2_distance(a, b):
  6. return np.sum(np.abs(a-b) ** 2, axis=1)
  7. # 分类器实现
  8. class kNN(object):
  9. #定义一个初始化方法,_init_ 是类的构造方法
  10. def __init__(self, n_neighbors = 1, dist_func = l1_distance):
  11. self.n_neighbors = n_neighbors
  12. self.dist_func = dist_func
  13. # 训练模型的方法
  14. def fit(self, x, y):
  15. self.x_train = x
  16. self.y_train = y
  17. # 模型预测方法
  18. def predict(self, x):
  19. # 初始化预测分组数据
  20. y_pred = np.zeros( (x.shape[0],1), dtype=self.y_train.dtype )
  21. # 遍历输入的x数据点,取出每个数据点的序号i和数据x_test
  22. for i, x_test in enumerate(x):
  23. #x_test跟所有训练数据计算距离
  24. distances = self.dist_func(self.x_train, x_test)
  25. #得到的距离按照由近到远排序,取出索引值
  26. nn_index = np.argsort(distances)
  27. #选取最近的k个点,保存他们对应的分类类别
  28. nn_y = self.y_train[ nn_index[:self.n_neighbors] ].ravel()
  29. #统计类别中出现频率最高的那个,赋给y_pred[i]
  30. y_pred[i] = np.argmax(np.bincount(nn_y))
  31. return y_pred
  32. ### 3.测试
  33. # 定义一个knn实例
  34. knn = kNN()
  35. # 训练模型
  36. knn.fit(x_train, y_train)
  37. # 保存结果list
  38. result_list = []
  39. # 针对不同的参数选取,做预测
  40. for p in [1, 2]:
  41. knn.dist_func = l1_distance if p ==1 else l2_distance
  42. # 考虑不同的k取值,步长为2
  43. for k in range(1, 10, 2):
  44. knn.n_neighbors = k
  45. #传入数据做预测
  46. y_pred = knn.predict(x_test)
  47. #求出预测准确率
  48. accuracy = accuracy_score(y_test, y_pred)
  49. result_list.append([k, 'l1_distance' if p==1 else 'l2_distance', accuracy])
  50. df = pd.DataFrame(result_list, columns=['k','距离函数','预测准确率'])
  51. df

在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,245人围观)

还没有评论,来说两句吧...

相关阅读

    相关 [分类] KNN算法

    KNN算法 KNN,K-NearestNeighbor——K最近邻(不常用) 是什么? 是机器学习中有监督机器学习下的一种简单的分类算法. K最近邻,就是k个

    相关 KNN分类算法

    KNN分类算法 最简单最初级的分类器,就是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类 K近邻(k-nea

    相关 KNN算法

    1、kNN算法又称为k近邻分类(k-nearest neighbor classification)算法。 最简单平凡的分类器也许是那种死记硬背式的分类器,记住所有的训练数