加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

大数据分析和挖掘的基本技术栈和入门方法整理

发布时间:2020-12-14 03:17:19 所属栏目:大数据 来源:网络整理
导读:Hive、hadoop 主要是了解Hive从HDFS中提数的Hive SQL语法,还是有很多技巧 Hive提数后怎么办? 一般是导出Excel csv格式,通过python、R语言处理 数据挖掘工具和平台python、R语言等 caffee、tensorflow、python、R语言 数据计算框架Spark 实现数据计算 数据

Hive、hadoop

主要是了解Hive从HDFS中提数的Hive SQL语法,还是有很多技巧

Hive提数后怎么办?

一般是导出Excel csv格式,通过python、R语言处理

数据挖掘工具和平台python、R语言等

caffee、tensorflow、python、R语言

数据计算框架Spark

实现数据计算

数据显示

R语言的数据呈现

数据分析算法、挖掘算法

划分数据集和测试集,通过简单交叉验证或K折交叉验证

无监督学习

例如KNN、KMeans聚类

监督学习

例如决策树、随机森林

广告推荐等常用算法

GBDT、XGBoost、CTR预估、FM、LDA等

CTR预估参考文献

http://www.voidcn.com/article/p-rnixyrwe-sp.html
http://blog.csdn.net/bitcarmanlee/article/details/52138970

多模型融合推荐算法

http://www.jianshu.com/p/6f4da232ec7f
多模型融合推荐算法在达观数据的运用

FM算法

参考《深入FM原理与实践》——美团
《Factorization Machines with libFM》

Bayes贝叶斯分类算法

可参考spark Bayes算法

GBDT与XGBoost的区别

  1. 传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。
  2. 传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。顺便提一下,xgboost工具支持自定义代价函数,只要函数可一阶和二阶求导。
  3. xgboost在代价函数里加入了正则项,用于控制模型的复杂度。正则项里包含了树的叶子节点个数、每个叶子节点上输出的score的L2模的平方和。从Bias-variance tradeoff角度来讲,正则项降低了模型的variance,使学习出来的模型更加简单,防止过拟合,这也是xgboost优于传统GBDT的一个特性。
  4. Shrinkage(缩减),相当于学习速率(xgboost中的eta)。xgboost在进行完一次迭代后,会将叶子节点的权重乘上该系数,主要是为了削弱每棵树的影响,让后面有更大的学习空间。实际应用中,一般把eta设置得小一点,然后迭代次数设置得大一点。(补充:传统GBDT的实现也有学习速率)
  5. 列抽样(column subsampling)。xgboost借鉴了随机森林的做法,支持列抽样,不仅能降低过拟合,还能减少计算,这也是xgboost异于传统gbdt的一个特性。
  6. 对缺失值的处理。对于特征的值有缺失的样本,xgboost可以自动学习出它的分裂方向。
  7. xgboost工具支持并行。boosting不是一种串行的结构吗?怎么并行的?注意xgboost的并行不是tree粒度的并行,xgboost也是一次迭代完才能进行下一次迭代的(第t次迭代的代价函数里包含了前面t-1次迭代的预测值)。xgboost的并行是在特征粒度上的。我们知道,决策树的学习最耗时的一个步骤就是对特征的值进行排序(因为要确定最佳分割点),xgboost在训练之前,预先对数据进行了排序,然后保存为block结构,后面的迭代中重复地使用这个结构,大大减小计算量。这个block结构也使得并行成为了可能,在进行节点的分裂时,需要计算每个特征的增益,最终选增益最大的那个特征去做分裂,那么各个特征的增益计算就可以开多线程进行。

参考《facebook gbdt构造新特征》
http://www.zhihu.com/question/41354392/answer/98658997

LDA主题模型

在线学习

FTRL请参考Google论文

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读