数据清洗处理-常用操作

ゝ一世哀愁。 2023-07-18 05:49 207阅读 0赞

介绍一些常见的数据处理操作及代码实现

内容包括:
数据内存缩小
重复值处理
缺失值处理
异常值处理
标准化
特征二值化
多项式特征构建
类别特征编码

1.数据转存,缩小内存

  1. def reduce_mem_usage(df):
  2. """ iterate through all the columns of a dataframe and modify the data type to reduce memory usage. """
  3. start_mem = df.memory_usage().sum()
  4. print('Memory usage of dataframe is {:.2f} MB'.format(start_mem))
  5. for col in df.columns:
  6. col_type = df[col].dtype
  7. if col_type != object:
  8. c_min = df[col].min()
  9. c_max = df[col].max()
  10. if str(col_type)[:3] == 'int':
  11. if c_min > np.iinfo(np.int8).min and c_max < np.iinfo(np.int8).max:
  12. df[col] = df[col].astype(np.int8)
  13. elif c_min > np.iinfo(np.int16).min and c_max < np.iinfo(np.int16).max:
  14. df[col] = df[col].astype(np.int16)
  15. elif c_min > np.iinfo(np.int32).min and c_max < np.iinfo(np.int32).max:
  16. df[col] = df[col].astype(np.int32)
  17. elif c_min > np.iinfo(np.int64).min and c_max < np.iinfo(np.int64).max:
  18. df[col] = df[col].astype(np.int64)
  19. else:
  20. if c_min > np.finfo(np.float16).min and c_max < np.finfo(np.float16).max:
  21. df[col] = df[col].astype(np.float16)
  22. elif c_min > np.finfo(np.float32).min and c_max < np.finfo(np.float32).max:
  23. df[col] = df[col].astype(np.float32)
  24. else:
  25. df[col] = df[col].astype(np.float64)
  26. else:
  27. df[col] = df[col].astype('category')
  28. end_mem = df.memory_usage().sum()
  29. print('Memory usage after optimization is: {:.2f} MB'.format(end_mem))
  30. print('Decreased by {:.1f}%'.format(100 * (start_mem - end_mem) / start_mem))
  31. return df
  32. sample_feature = reduce_mem_usage(pd.read_csv('data_for_tree.csv'))
  33. # 数据清洗常用操作
  34. # 重复值处理
  35. print('存在' if any(train_data.duplicated()) else '不存在', '重复观测值')
  36. train_data.drop_duplicates()
  37. #缺失值处理
  38. print('存在' if any(train_data.isnull()) else '不存在', '缺失值')
  39. train_data.dropna() # 直接删除记录
  40. train_data.fillna(method='ffill') # 前向填充
  41. train_data.fillna(method='bfill') # 后向填充
  42. train_data.fillna(value=2) # 值填充
  43. train_data.fillna(value={ 'sepal length (cm)':train_data['sepal length (cm)'].mean()}) # 统计值填充
  44. train_data['Fare'] = train_data[['Fare']].fillna(train_data.groupby('Pclass').transform(np.mean))#使用其他特征groupby后的均值进行填充
  45. # 缺失值插补
  46. x = [[np.nan, '1', '3'], [np.nan, '3', '5']]
  47. imputer = preprocessing.Imputer(missing_values='NaN', strategy='mean', axis=1)
  48. y = imputer.fit_transform(x)
  49. # 异常值处理
  50. data1 = train_data['sepal length (cm)']
  51. # 标准差监测
  52. xmean = data1.mean()
  53. xstd = data1.std()
  54. print('存在' if any(data1>xmean+2*xstd) else '不存在', '上限异常值')
  55. print('存在' if any(data1<xmean-2*xstd) else '不存在', '下限异常值')
  56. # 箱线图监测
  57. q1 = data1.quantile(0.25)
  58. q3 = data1.quantile(0.75)
  59. up = q3+1.5*(q3-q1)
  60. dw = q1-1.5*(q3-q1)
  61. print('存在' if any(data1> up) else '不存在', '上限异常值')
  62. print('存在' if any(data1< dw) else '不存在', '下限异常值')
  63. data1[data1>up] = data1[data1<up].max()
  64. data1[data1<dw] = data1[data1>dw].min()
  65. 标准化
  66. # 0-1标准化
  67. X_train_minmax = preprocessing.minmax_scale(train_data, feature_range=(0, 1), axis=0, copy=True) # 直接用标准化函数
  68. min_max_scaler = preprocessing.MinMaxScaler() # 也可以用标准化类,然后调用方法
  69. X_train_minmax2 = min_max_scaler.fit_transform(train_data)
  70. # z-score标准化
  71. X_train_zs = preprocessing.scale(train_data, axis=0, with_mean=True, with_std=True, copy=True) # 直接用标准化函数
  72. zs_scaler = preprocessing.StandardScaler() # 也可以用标准化类,然后调用方法
  73. X_train_zs2 = zs_scaler.fit_transform(train_data)
  74. # 归一化处理
  75. X_train_norm = preprocessing.normalize(train_data, norm='l2', axis=1) # 直接用标准化函数
  76. normalizer = preprocessing.Normalizer() # 也可以用标准化类,然后调用方法
  77. X_train_norm2 = normalizer.fit_transform(train_data)
  78. # 数据的缩放比例为绝对值最大值,并保留正负号,即在区间[-1, 1]内。
  79. #唯一可用于稀疏数据scipy.sparse的标准化
  80. X_train_ma = preprocessing.maxabs_scale(X, axis=0, copy=True)
  81. # 通过 Interquartile Range(IQR) 标准化数据,即四分之一和四分之三分位点之间
  82. X_train_rb = preprocessing.robust_scale(train_data, axis=0,
  83. with_centering=True, with_scaling=True, copy=True)
  84. # 二值化
  85. # 按照阈值threshold将数据转换成成0-1,小于等于threshold为 0
  86. X_train_binary = preprocessing.binarize(train_data, threshold=0, copy=True)

特征二值化
给定特征将特征转化为0/1

  1. binarizer = sklearn.preprocessing.Binarizer(threshold=1.1)
  2. binarizer.transform(X)

多项式特征构建

  1. poly = sklearn.preprocessing.PolynomialFeatures(2)
  2. poly.fit_transform(X)

在这里插入图片描述

对于类别特征需要进行编码
常见编码方式有LabelEncoder、OneHotEncoder,以及针对高数量类别特征编码— 均值编码

其中:LabelEncoder能够接收不规则的特征列,并将其转化为从到的整数值(假设一共有种不同的类别);OneHotEncoder则能通过哑编码,制作出一个m*n的稀疏矩阵(假设数据一共有m行,具体的输出矩阵格式是否稀疏可以由sparse参数控制)
还有针对高数量类别特征编码— 均值编码

  1. from sklearn.preprocessing import OneHotEncoder, LabelEncoder
  2. import numpy as np
  3. import pandas as pd
  4. le = LabelEncoder()
  5. data_df['street_address'] = le.fit_transform(data_df['street_address'])
  6. ohe = OneHotEncoder(n_values='auto', categorical_features='all',dtype=np.float64, sparse=True, handle_unknown='error')
  7. one_hot_matrix = ohe.fit_transform(data_df['street_address'])

对于均值编码实现,可参考https://blog.csdn.net/juzexia/article/details/78581462

#

参考:
https://blog.csdn.net/Trisyp/article/details/89371094
https://blog.csdn.net/RivenDong/article/details/100120333?depth\_1-utm\_source=distribute.pc\_relevant.none-task&utm\_source=distribute.pc\_relevant.none-task

发表评论

表情:
评论列表 (有 0 条评论,207人围观)

还没有评论,来说两句吧...

相关阅读