发表评论取消回复
相关阅读
相关 利用GBDT模型构造新特征
转: [ http://breezedeus.github.io/2014/11/19/breezedeus-feature-mining-gbdt.html][http_br
相关 使用Sklearn进行特征工程
![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA6aG-5Y2B5pa5_
相关 Python/scikit-learn机器学习库(特征选取)
去除方差小的特征 设置一个方差阈值,没有达到这个方差阈值的特征都会被丢弃。 VarianceThreshold,算法输入只要求特征(X),不需要输入结果(Y)。 >
相关 Python - Scikit-Learn 的 数据加载+数据标准化+特征的选取
加载数据到内存。Scikit-Learn库在它的实现用使用了NumPy数组,用NumPy来加载\.csv文件。 [UCI Machine Learning Repositor
相关 特征选择 GBDT 特征重要度
Tree ensemble算法的特征重要度计算 集成学习因具有预测精度高的优势而受到广泛关注,尤其是使用决策树作为基学习器的集成学习[算法][Link 1]。树的集成算法
相关 高维稀疏特征的时候,lr 的效果会比 gbdt 好
高维稀疏特征的时候,lr 的效果会比 gbdt 好,为什么? 这个问题我也是思考了好久,在平时的项目中也遇到了不少 case,确实高维稀疏特征的时候,使用 gbdt
相关 如何进行特征选择 实践
在做特征抽取的时候,我们是尽可能地抽取更多的Feature,但过多的 Feature 会造成 冗余(部分特征的相关度太高了,消耗计算性能),噪声(部分特征是对预测结果有负影响)
相关 为什么高维稀疏特征的时候,lr 的效果会比 gbdt 好
这个问题我也是思考了好久,在平时的项目中也遇到了不少 case,确实高维稀疏特征的时候,使用 gbdt 很容易过拟合。 但是还是不知道为啥,后来深入思考了一下模型的特点
相关 GBDT
分享原文链接:[https://blog.csdn.net/yyy430/article/details/85108797][https_blog.csdn.net_yyy43
相关 scikit-learn的GBDT工具进行特征选取。
http://blog.csdn.net/w5310335/article/details/48972587 [使用GBDT选取特征][GBDT] 2015-03-3
还没有评论,来说两句吧...