百科问答小站 logo
百科问答小站 font logo



为什么新增特征有时候会对模型带来负面影响? 第1页

  

user avatar   geng-rui-61 网友的相关建议: 
      

其实这个问题描述得不好。首先你的lr是什么lr,是logistic regression还是linear regression?没有加入什么贝叶斯、GP之类的?

因为不知道你说的是什么lr,所以不知道你处理的是什么问题,classification,还是regression。

你说的结果变差了,这个描述太不“统计学”了。如果你做的是regression,你是说MSE变大了,还是说l1或者l2变大了?你是如何做regularization的?如果你做的是classification,你说的结果变差了,是说accuracy差了,还是recall或者precision差了,或者只是f1差了?如果是f1差了,你是说minor f1差了还是major f1差了?

而且我们脱离数据谈数据也不好。数据本身是否做过standardisation?而且数据本身是否“可用”?我就见过有人把周一周二周三这种数值直接设为1、2、3、4、5、6、0,结果还问为什么效果变差了。而且有人连自己的数据的matrix的rank是多少都不知道,就直接撸模型。我说实话,这样是不合适的。你可能能做出结果,但是出了结果,你不知道怎么调。

而且你说排除过拟合,你是怎么排除这个可能性的?


所以说,我们常常看人做数据,手写算法,但是很少有人真的懂得科学的分析方法,很少有人真的能做error analysis。我是建议你重新编辑一下问题,然后大家帮你看一下。一般来说效果变差了,我的理解是,效果在training data和testing data上都变差了,而且无论训练多少个迭代,结果不收敛。那样的话,要检查你的数据本身是否可用。




  

相关话题

  Yann LeCun、Geoffrey Hinton或Yoshua Bengio能得图灵奖吗? 
  能分享你收藏的国外AI talk, seminar平台或网站吗? 
  如何评价Yann LeCun 说的「要研究机器学习,本科应尽量多学物理和数学课」? 
  机器学习中macro-F1的计算公式? 
  机器学习中使用正则化来防止过拟合是什么原理? 
  目前强化学习在控制领域的应用有哪些? 
  2019年NeurIPS有哪些糟糕的论文? 
  如何评价《Science》封面文章《通过概率规划归纳的人类层次概念学习》? 
  如何评价百度自动驾驶 ApolloAuto 在 Github 上发布的代码? 
  如何看待 Nervana 被 Intel 收购? 

前一个讨论
2021年,AI将何去何从?哪些技术与应用是下一个风口?能否推荐相关图书?
下一个讨论
如何评价 Kaiming 团队新作 Masked Autoencoders (MAE)?





© 2024-11-25 - tinynew.org. All Rights Reserved.
© 2024-11-25 - tinynew.org. 保留所有权利