编程知识 cdmana.com

大数据开发常用的工具介绍

  Java语言和 Linux操作系统,它们是学习大数据的基础。

  java:只需了解一些基本知识,不需要用很深的Java技术来做大数据,学习 java SE等于学习大数据基础。

  Linux:因为与大数据有关的软件都在 Linux上运行,所以 Linux要学扎实一点,学好Linux对你快速掌握与大数据有关的技术,能让你更好地了解 hadoop, hive, hbase, spark等大数据软件的运行环境和网络环境配置,能少走很多弯路,学会 shell可以更轻松地理解和配置大数据集群。同时也可以让你更快地了解到未来大数据技术的发展。

  hadoop:这是一个流行的大数据处理平台,它几乎成了大数据的代名词,所以一定要学习它。在Hadoop中包含了HDFS、MapReduce和 YARN这三个组件, HDFS就像我们电脑硬盘上的文件一样存储在这些文件中, MapReduce用来处理数据,而 MapReduce用来计算数据,它的一个特点是,不管数据多大,只要给它时间, MapReduce就可以运行数据,但时间可能不会太快,因此它称之为数据的批量处理。

  Zookeeper:这是一个万金油,当你安装 Hadoop的 HA时就可以使用它,Hbase以后也可以使用。该软件通常用于存储一些相互协作的信息,这些信息一般不会超过1 M,所有使用该软件的软件都依赖于此,对于我们个人来说,只需正确安装该软件,使其正常运行即可。

  mysql:我们学习了大数据处理,然后学习了 mysql数据库处理小数据的工具,因为现在还在使用 mysql, mysql需要掌握多少层那?您可以在 Linux上安装、运行它,配置简单的权限、修改 root密码、创建数据库。在这里,我们主要学习 SQL的语法,因为 hive的语法非常类似于此。

  sqoop:此文件用于从 Mysql导入数据到 Hadoop。同样的,您也可以不用它,直接将 Mysql数据表导出为文件放入 HDFS,当然,在生产环境中使用 Mysql时也要小心。

  Hive:这是一款非常适合使用 SQL语法的工具,可以使您轻松地处理大量数据,并且无需编写 MapReduce程序。有人说皮格是吗?跟 Pig差不多掌握其中一项。

  现在你已经学会了 Hive,我相信你一定需要这款软件,它可以帮助你管理 Hive或 MapReduce,Spark脚本,还可以检查你的程序是否正确运行,如果出现错误,向你发送警报并重新尝试程序,最重要的是,它还可以帮助你配置任务的依赖性。你肯定会喜欢它的,否则你就会看着一大堆脚本,密密麻麻地写着 crond。

  hbase:这是 Hadoop生态系统中的 NOSQL数据库,他的数据以 key和 value的形式存储, key是惟一的,因此它可以用于数据的重排,与 MYSQL相比,它可以存储大量的数据。因此,他经常在处理完大数据后用于存储目的地。

  Kafka:这是一个更好的队列工具,为什么要使用队列呢?更多的数据也同样需要排队,例如,数百G文件如何处理,当您将数据逐个放到队列中时,您可以将其逐个取出,当然,您还可以使用该工具对在线实时数据进行入库或加入 HDFS,此时您可以与一个名为 Flume的工具协作,该工具专门用于提供对数据的简单处理,并将其写入各种数据接收者(如 Kafka)。

  Spark:它用来弥补基于 MapReduce的数据处理速度的不足,它的特点是将数据装入内存中进行计算,而不是去读慢的、会导致死机的、进化也特别慢的硬盘。尤其适用于迭代运算,其中算法的优化是核心。JAVA或 Scala都能操纵它。郑州同济不孕不育医院:http://jbk.39.net/yiyuanzaixian/zztjyy/郑州男妇科医院在线咨询:http://news.39.net/ylzx/zztjyy/郑州妇科医院那里好:http://jbk.39.net/yiyuanzaixian/sysdfkyy/

版权声明
本文为[sxxbxh]所创,转载请带上原文链接,感谢
https://my.oschina.net/u/4696788/blog/4711434

Scroll to Top