在Docker容器上使用Hadoop和Spark
发布时间:2020-12-16 03:24:26 所属栏目:安全 来源:网络整理
导读:我想在工作中使用大数据分析.我已经实现了在容器内创建容器的所有docker东西.但是,我是大数据的新手,当速度很重要时(对吗?),使用Hadoop for HDFS并在Hadoop本身上使用Spark而不是MapReduce是网站和应用程序的最佳方法.这可以在我的Docker容器上工作吗?如果
我想在工作中使用大数据分析.我已经实现了在容器内创建容器的所有docker东西.但是,我是大数据的新手,当速度很重要时(对吗?),使用Hadoop for HDFS并在Hadoop本身上使用Spark而不是MapReduce是网站和应用程序的最佳方法.这可以在我的Docker容器上工作吗?如果有人可以指引我到其他地方去学习,这将非常有帮助. 最佳答案
您可以尝试使用Cloudera QuickStart Docker Image入门.请查看https://hub.docker.com/r/cloudera/quickstart/.此Docker映像支持Cloudera Hadoop平台和Cloudera Manager的单节点部署.此外,此docker映像也支持spark.
(编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |