-
[bigdata-012]部署CDH5 Hadoop 的伪分布式容器
所属栏目:[大数据] 日期:2020-12-14 热度:169
1. CDH 伪分布式容器 所谓伪分布式,就是在一个容器里,部署Hadoop集群的所有功能节点,主要用于开发和测试。 ? 2. 选择Hadoop镜像的两个条件: ??? 跟host做端口映射。 ??? 伪分布式Hadoop。 ? 3. pull image ??? docker pull ingensi/hadoop-cdh-pseudo:cd[详细]
-
[bigdata-012]部署CDH5 Hadoop 的伪分布式容器
所属栏目:[大数据] 日期:2020-12-14 热度:188
1. CDH 伪分布式容器 所谓伪分布式,就是在一个容器里,部署Hadoop集群的所有功能节点,主要用于开发和测试。 ? 2. 选择Hadoop镜像的两个条件: ??? 跟host做端口映射。 ??? 伪分布式Hadoop。 ? 3. pull image ??? docker pull ingensi/hadoop-cdh-pseudo:cd[详细]
-
[bigdata-013]某app端用户行为分析-1
所属栏目:[大数据] 日期:2020-12-14 热度:131
数据集来自mongodb数据库,将bson格式转为json格式已经在其他文章描述。这里使用已经转化好的json文件。每行是一个行为事件。 ? 我们首先要从无序的数据集里,恢复出每个用户的行为事件的时间序列,然后才能进行有效的后续分析。本文主要解决这个问题。 ? 1.[详细]
-
[bigdata-013]某app用户行为分析
所属栏目:[大数据] 日期:2020-12-14 热度:71
数据集来自mongodb数据库,将bson格式转为json格式。每行是一个行为事件。 ? 首先要从无序的数据集里,恢复出每个用户的行为事件的时间序列,然后才能进行有效的后续分析。 ? 1. 一个行为事件的数据记录,数据结构如下: { 'deviceInfo': { ??? 'operationSy[详细]
-
[bigdata-014] 在ubunut 14.04 上安装mongodb 2.4.9
所属栏目:[大数据] 日期:2020-12-14 热度:197
在u14上安装mongodb 1. apt-get install mongodb 2. 起停 service mongodb start service mongodb stop 3. mongodb 启动命令 /usr/bin/mongod --config /etc/mongdb.conf 4. 相关配置 cd /etc find . -name "*mongo*" ./mongodb.conf ./init/mongodb.conf ./[详细]
-
[bigdata-014] 在ubunut 14.04 上安装mongodb 2.4.9
所属栏目:[大数据] 日期:2020-12-14 热度:194
在u14上安装mongodb 1. apt-get install mongodb 2. 起停 service mongodb start service mongodb stop 3. mongodb 启动命令 /usr/bin/mongod --config /etc/mongdb.conf 4. 相关配置 cd /etc find . -name "*mongo*" ./mongodb.conf ./init/mongodb.conf ./[详细]
-
互联网+对IP价值挖掘究竟能带来哪些帮助?
所属栏目:[大数据] 日期:2020-12-14 热度:69
现如今,随着互联网IP(知识产权)的不断深化,越来越多巨头强化了对IP价值的挖掘,尤其在互联网+时代,随着网络视频、网络直播的崛起,互联网IP更呈现了多元化的发展形势。那么具体来说,互联网+对IP价值挖掘究竟能带来哪些帮助?互联网IP又将以怎样的趋势[详细]
-
今日好书丨《揭开数据真相:从小白到数据分析达人》
所属栏目:[大数据] 日期:2020-12-14 热度:143
《揭开数据真相:从小白到数据分析达人 》 掌握阅读数据的技术 挖出“看不见”的数据真相,还原基本事实! 【美】Edward Zaccaro,Daniel Zaccaro 著 李芳 译 2016年11月出版 ? 小编推荐: 本书收录了生活中常见的统计图表、各类数据,并告诉我们如何“阅读”[详细]
-
[bigdata]小象幫幫忙,Hadoop 能幫什麼忙?
所属栏目:[大数据] 日期:2020-12-14 热度:69
https://dotblogs.com.tw/rickyteng/2012/12/11/85556 [bigdata]小象幫幫忙,Hadoop 能幫什麼忙? Hadoop 文獻探討 微軟巨量資料策略轉向,全面支援Hadoop http://www.ithome.com.tw/itadm/article.php?c=77576 微軟表示,全面支援 Apache Hadoop,這消息說[详细]
-
资讯 |大数据统计分析教学培训班(第二轮通知)
所属栏目:[大数据] 日期:2020-12-14 热度:140
大数据统计分析教学培训班 暨首届高校青年教师统计教学创新研讨会 第二轮通知 尊敬的老师和同学,您好! 自此次培训班/研讨会第一轮通知发出至今,得到了广大青年教师、研究生与高年级本科的积极响应,来信或来电咨询,报名踊跃。今天再发一次通知,对培训班[详细]
-
[bigdata-015] apache nifi 官方文档摘要
所属栏目:[大数据] 日期:2020-12-14 热度:154
1NIFI 概览 |NIFIOverView 1.1NIFI 是什么 |Whatis Apache NIFI NIFI 的设计目标,是让各系统之间自动进行数据流交换。企业通常有多个系统,有的系统生产数据,有的系统消费数据。 dataflow 。 dataflow 涉及到的主要问题: 系统失效:网络失效,硬盘失效,[详细]
-
[bigdata-015] apache nifi 官方文档摘要
所属栏目:[大数据] 日期:2020-12-14 热度:184
1NIFI 概览 |NIFIOverView 1.1NIFI 是什么 |Whatis Apache NIFI NIFI 的设计目标,是让各系统之间自动进行数据流交换。企业通常有多个系统,有的系统生产数据,有的系统消费数据。 dataflow 。 dataflow 涉及到的主要问题: 系统失效:网络失效,硬盘失效,[详细]
-
Algorithm学习笔记 --- 寻找 K 大数
所属栏目:[大数据] 日期:2020-12-14 热度:98
Q: 给你一个无序的序列,要你找出第K大的数是什么? Answer: Answer 1: 利用Hash,桶排序等方式,是第一个想到的(编程珠玑中所记) 假设数列中最大数为max,最小数为min,那么首先做一个数组长度为max – min + 1, 然后做散列函数为an – min,对于冲突[详细]
-
7本书从小工到数据分析专家
所属栏目:[大数据] 日期:2020-12-14 热度:60
帮助您的书学数据分析的基础知识,并接近成为在数据分析方面的专家。 在过去的几年里,我读了相当数量的书籍上的数据分析,确定了七个,在我看来,其中最好的。一起,这些书的研究数据分析的基[详细]
-
浅谈大数的进制转换
所属栏目:[大数据] 日期:2020-12-14 热度:192
http://www.voidcn.com/article/p-fpnokpkx-yn.html http://www.cnblogs.com/bhlsheji/p/5104558.html http://www.cnblogs.com/phinecos/archive/2009/09/11/1564975.html[详细]
-
太多选择——企业如何选择合适的BI工具?
所属栏目:[大数据] 日期:2020-12-14 热度:169
文 | keira-杨红 在没认清现状前,企业当然不能一言不合就上BI。 BI不同于一般的企业管理软件,不能简单归类为类似用于提高管理的ERP和WMS,或用于提高企业效率的OA、BPM。BI的本质应该是通过展现数据,用于加强企业各环节的管控,帮助快速制定科学的决策。[详细]
-
bigdata-016] python happybase 操作hbase
所属栏目:[大数据] 日期:2020-12-14 热度:187
1. 用happybase库 操作 hbase ??? http://happybase.readthedocs.io/en/latest/ 2. cdh集群的hbase集群有三个节点 ??? hbase的版本是HBase 1.2.0 3. hbase base的log目录小于5g,导致报警,目录在/var/log/hbase,准备清空它。 ?? 删除不需要的log之后,所有[详细]
-
[bigdata-016] python happybase 操作hbase
所属栏目:[大数据] 日期:2020-12-14 热度:188
1. 用happybase库 操作 hbase ??? http://happybase.readthedocs.io/en/latest/ 2. cdh集群的hbase集群有三个节点 ??? hbase的版本是HBase 1.2.0 3. hbase base的log目录小于5g,导致报警,目录在/var/log/hbase,准备清空它。 ?? 删除不需要的log之后,所有[详细]
-
22本数据分析、挖掘的好书推荐—绝对干货,不看后悔!
所属栏目:[大数据] 日期:2020-12-14 热度:166
1. 深入浅出 数据分析 这书挺简单的,基本的内容都涉及了,说得也比较清楚,最后谈到了R是大加分。 难易程度:非常易。 2.啤酒与尿布 通过案例来说事情,而且是最经典的例子。 3.数据之美 一本介绍性的书籍,每章都解决一个具体的问题,甚至还有代码,对理解[详细]
-
分析工具很难选? 看他们如何挖掘大数据价值
所属栏目:[大数据] 日期:2020-12-14 热度:80
点击上方蓝色字体关注。 您还可以搜索公众号“ D1net ”选择关注D1net旗下的各领域(云计算,数据中心,大数据,CIO,企业协作,网络数通,信息安全,企业移动应用,系统集成,服务器,存储,呼叫中心,视频会议,视频监控等)的子公众号。 ======= 预测建模[详细]
-
传统企业在大数据分析上所面临的关键问题
所属栏目:[大数据] 日期:2020-12-14 热度:167
实现数据驱动有两个关键环节:一是数据采集,二是数据分析。对于传统企业来说,往往是这两点都不太具备条件。? 数据采集的痛点 前一段知乎上有人提问,说大家都在讨论大数据与互联网、金融、政府等领域的结合,为什么谈农业大数据的这么少?相关的公司这么少[详细]
-
[bigdata-017] 用Hive操作hbase
所属栏目:[大数据] 日期:2020-12-14 热度:101
1. 在hbase创建一个表 ivt_mny_pro 2. 在hive创建一个外部表ivt_mny_pro_2_hive create external table ivt_mny_pro_2_hive(key string,idx bigint,beginTime timestamp,endTime timestamp,userid string) row format serde 'org.apache.hadoop.hive.hbase.H[详细]
-
[bigdata-017] 用Hive操作hbase
所属栏目:[大数据] 日期:2020-12-14 热度:113
1. 在hbase创建一个表 ivt_mny_pro 2. 在hive创建一个外部表ivt_mny_pro_2_hive create external table ivt_mny_pro_2_hive(key string,idx bigint,beginTime timestamp,endTime timestamp,userid string) row format serde 'org.apache.hadoop.hive.hbase.H[详细]
-
FP-Growth序列频繁模式挖掘
所属栏目:[大数据] 日期:2020-12-14 热度:133
1算法设计目标 输入不同的命令是用户使用Linux服务器的基本途径,通过长时间采集不同用户在使用服务器过程中所使用的命令序列,挖掘其中频繁出现的命令序列,可以帮助我们了解用户使用该服务器的基本规律。 此外,如果存在多台服务器,那么我们可以分析挖掘[详细]
-
Kahan's Summation Formula原理—它是如何避免大数吃小数的
所属栏目:[大数据] 日期:2020-12-14 热度:122
Kahan求和公式原理: ? ? ? ?首先,这个算法就是用来求和的,求a1+a2+a3+...为什么不直接相加呢,而要用Kahan求和公式呢,这个算法的用武之地在哪呢,一一道来 ? ? ? ?kahan求和算法能避免大数吃小数的情况。 ? ? ? ?大数吃小数是什么意思呢?举个例子,我们[详细]