您现在的位置:首页 > IT资讯 > 大数据处理技术是什么?

大数据处理技术是什么?

2021-11-29 13:36:10 | 来源:中培教育

大数据已经渗透到每个行业和业务功能领域,并逐渐成为重要的生产要素。人们对海量数据的使用将预示着生产力增长和消费者富余的新趋势,因此需要大数据技术来处理这些数据。那么到底大数据处理技术是什么?


大的数据需要特殊的技术,以有效地处理大量的数据。适用于大数据的技术,包括大规模并行处理(MPP)数据库,数据挖掘电网,分布式文件系统,分布式数据库,云计算平台,互联网和可扩展的存储系统。简言之,从各种各样类型的数据中,快速获得有价值信息的能力,就是大数据技术。明白这一点至关重要,也正是这一点促使该技术具备走向众多企业的潜力。

大数据处理技术有哪些?


大数据的技术基础

2003—2004 年间,Google 发表了 MapReduce、GFS和 BigTable 3 篇技术论文,提出了一套全新的分布式计算理论。

MapReduce 是分布式计算框架,GFS 是分布式文件系统,BigTable 是基于 GFS 的数据存储系统,这 3 大组件组成了 Google 的分布式计算模型。

Google 的分布式计算模型相比于传统的分布式计算模型有 3 大优势:

· 被应用在 Google 的计算中心,取得了很好的效果,有了实际应用的证明。

后来,各家互联网公司开始利用 Google 的分布式计算模型搭建自己的分布式计算系统,Google 的这 3 篇论文也就成为大数据时代的技术核心。

当时 Google 采用分布式计算理论也是为了利用廉价的资源,使其发挥出更大的效用。Google 的成功使人们开始效仿,从而产生了开源系统 Hadoop。

从 Hadoop 体系和 Google 体系各方面的对应关系来讲,Hadoop、MapReduce 相当于 MapReduce,HDFS 相当于 GFS,HBase 相当于 BigTable。


· 简化了传统的分布式计算理论,降低了技术实现的难度,可以进行实际的应用。

· 可以应用在廉价的计算设备上,只需增加计算设备的数量就可以提升整体的计算能力,应用成本十分低廉。

分布式计算

对于如何处理大数据,计算机科学界有两大方向。

第一个方向是集中式计算,就是通过不断增加处理器的数量来增强单个计算机的计算能力,从而提高处理数据的速度。

第二个方向是分布式计算,就是把一组计算机通过网络相互连接组成分散系统,然后将需要处理的大量数据分散成多个部分,交由分散系统内的计算机组同时计算,最后将这些计算结果合并,得到最终的结果。

尽管分散系统内的单个计算机的计算能力不强,但是由于每个计算机只计算一部分数据,而且是多台计算机同时计算,所以就分散系统而言,处理数据的速度会远高于单个计算机。

过去,分布式计算理论比较复杂,技术实现比较困难,因此在处理大数据方面,集中式计算一直是主流解决方案。

IBM 的大型机就是集中式计算的典型硬件,很多银行和政府机构都用它处理大数据。不过,对于当时的互联网公司来说,IBM 的大型机的价格过于昂贵。因此,互联网公司把研究方向放在了可以使用在廉价计算机上的分布式计算上。

服务器集群

服务器集群是一种提升服务器整体计算能力的解决方案。它是由互相连接在一起的服务器群组成的一个并行式或分布式系统。

由于服务器集群中的服务器运行同一个计算任务,因此,从外部看,这群服务器表现为一台虚拟的服务器,对外提供统一的服务。

尽管单台服务器的运算能力有限,但是将成百上千的服务器组成服务器集群后,整个系统就具备了强大的运算能力,可以支持大数据分析的运算负荷。

Google、Amazon 阿里巴巴的计算中心里的服务器集群都达到了 5000 台服务器的规模。

标签: 大数据

相关阅读

近期开班