首页>>互联网>>大数据->美国处于大数据应用的哪个阶段(2023年最新解答)

美国处于大数据应用的哪个阶段(2023年最新解答)

时间:2023-12-21 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于美国处于大数据应用的哪个阶段的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

大数据和人工智能在互联网金融领域有哪些应用

数据从四个方面改变了金融机构传统的数据运作方式,从而实现了巨大的商业价值。这四个方面(“四个C”)包括:数据质量的兼容性

(Compatibility)、数据运用的关联性(Connectedness)、数据分析的成本(Cost)以及数据价值的转化

(Capitalization)。

 

 大数据在金融业的应用场景正在逐步拓展。在海外,大数据已经在金融行业的风险控制、运营管理、销售支持和商业模式创新等领域得到了全面尝试。在国内,金

融机构对大数据的应用还基本处于起步阶段。数据整合和部门协调等关键环节的挑战仍是阻碍金融机构将数据转化为价值的主要瓶颈。

 

 数据技术与数据经济的发展是持续实现大数据价值的支撑。深度应用正在将传统IT从“后端”不断推向“前台”,而存量架构与创新模块的有效整合是传统金融

机构在技术层面所面临的主要挑战。此外,数据生态的发展演进有其显著的社会特征。作为其中的一员,金融机构在促进数据经济的发展上任重道远。

为了驾驭大数据,国内金融机构要在技术的基础上着重引入以价值为导向的管理视角,最终形成自上而下的内嵌式变革。其中的三个关键点(“TMT”)包括:团队(Team)、机制(Mechanism)和思维(Thinking)。

1.价值导向与内嵌式变革—BCG对大数据的理解

“让数据发声!”—随着大数据时代的来临,这个声音正在变得日益响亮。为了在喧嚣背后探寻本质,我们的讨论将从大数据的定义开始。

1.1成就大数据的“第四个V”

大数据是什么?在这个问题上,国内目前常用的是“3V”定义,即数量(Volume)、速度(Velocity)和种类(Variety)。

 

 虽然有着这样的定义,但人们从未停止讨论什么才是成就大数据的“关键节点”。人们热议的焦点之一是“到底多大才算是大数据?”其实这个问题在“量”的层

面上并没有绝对的标准,因为“量”的大小是相对于特定时期的技术处理和分析能力而言的。在上个世纪90年代,10GB的数据需要当时计算能力一流的计算机

处理几个小时,而这个量现在只是一台普通智能手机存储量的一半而已。在这个层面上颇具影响力的说法是,当“全量数据”取代了“样本数据”时,人们就拥有了

大数据。

 

 另外一个成为讨论焦点的问题是,今天的海量数据都来源于何处。在商业环境中,企业过去最关注的是ERP(Enterprise Resource

Planning)和CRM(Customer Relationship

Management)系统中的数据。这些数据的共性在于,它们都是由一个机构有意识、有目的地收集到的数据,而且基本上都是结构化数据。随着互联网的深

入普及,特别是移动互联网的爆发式增长,人机互动所产生的数据已经成为了另一个重要的数据来源,比如人们在互联网世界中留下的各种“数据足迹”。但所有这

些都还不是构成“大量数据”的主体。机器之间交互处理时沉淀下来的数据才是使数据量级实现跨越式增长的主要原因。“物联网”是当前人们将现实世界数据化的

最时髦的代名词。海量的数据就是以这样的方式源源不断地产生和积累。

“3V”的定义专注于对数据本身的特征进行描述。然而,是否是量级庞大、实时传输、格式多样的数据就是大数据?

BCG认为,成就大数据的关键点在于“第四个V”,即价值(Value)。当量级庞大、实时传输、格式多样的全量数据通过某种手段得到利用并创造出商业价值,而且能够进一步推动商业模式的变革时,大数据才真正诞生。

1.2变革中的数据运作与数据推动的内嵌式变革

多元化格式的数据已呈海量爆发,人类分析、利用数据的能力也日益精进,我们已经能够从大数据中创造出不同于传统数据挖掘的价值。那么,大数据带来的“大价值”究竟是如何产生的?

 

 无论是在金融企业还是非金融企业中,数据应用及业务创新的生命周期都包含五个阶段:业务定义需求;IT部门获取并整合数据;数据科学家构建并完善算法与

模型;IT发布新洞察;业务应用并衡量洞察的实际成效。在今天的大数据环境下,生命周期仍维持原样,而唯一变化的是“数据科学家”在生命周期中所扮演的角

色。大数据将允许其运用各种新的算法与技术手段,帮助IT不断挖掘新的关联洞察,更好地满足业务需求。

 

 因此,BCG认为,大数据改变的并不是传统数据的生命周期,而是具体的运作模式。在传统的数据基础和技术环境下,这样的周期可能要经历一年乃至更长的时

间。但是有了现在的数据量和技术,机构可能只需几周甚至更短的时间就能走完这个生命周期。新的数据运作模式使快速、低成本的试错成为可能。这样,商业机构

就有条件关注过去由于种种原因而被忽略的大量“小机会”,并将这些“小机会”累积形成“大价值”。

具体而言,与传统的数据应用相比,大数据在四个方面(“4C”)改变了传统数据的运作模式,为机构带来了新的价值。

1.2.1数据质量的兼容性(Compatibility):大数据通过“量”提升了数据分析对“质”的宽容度

 

 在“小数据”时代,数据的获取门槛相对较高,这就导致“样本思维”占据统治地位。人们大多是通过抽样和截取的方式来捕获数据。同时,人们分析数据的手段

和能力也相对有限。为了保证分析结果的准确性,人们通常会有意识地收集可量化的、清洁的、准确的数据,对数据的“质”提出了很高的要求。而在大数据时代,

“全量思维”得到了用武之地,人们有条件去获取多维度、全过程的数据。但在海量数据出现后,数据的清洗与验证几乎成为了不可能的事。正是这样的困境催生了

数据应用的新视角与新方法。类似于分布式技术的新算法使数据的“量”可以弥补“质”的不足,从而大大提升了数据分析对于数据质量的兼容能力。

1.2.2数据运用的关联性(Connectedness):大数据使技术与算法从“静态”走向“持续”

 

 在大数据时代,对“全量”的追求使“实时”变得异常重要,而这一点也不仅仅只体现在数据采集阶段。在云计算、流处理和内存分析等技术的支撑下,一系列新

的算法使实时分析成为可能。人们还可以通过使用持续的增量数据来优化分析结果。在这些因素的共同作用下,人们一贯以来对“因果关系”的追求开始松动,而

“相关关系”正在逐步获得一席之地。

1.2.3数据分析的成本(Cost):大数据降低了数据分析的成本门槛

 

 大数据改变了数据处理资源稀缺的局面。过去,数据挖掘往往意味着不菲的投入。因此,企业希望能够从数据中发掘出“大机会”,或是将有限的数据处理资源投

入到有可能产生大机会的“大客户、大项目”中去,以此获得健康的投入产出比。而在大数据时代,数据处理的成本不断下降,数据中大量存在的“小机会”得见天

日。每个机会本身带来的商业价值可能并不可观,但是累积起来就会实现质的飞跃。所以,大数据往往并非意味着“大机会”,而是“大量机会”。

1.2.4数据价值的转化(Capitalization):大数据实现了从数据到价值的高效转化

 

 在《互联网金融生态系统2020:新动力、新格局、新战略》报告中,我们探讨了传统金融机构在大变革时代所需采取的新战略思考框架,即适应型战略。采取

适应型战略有助于企业构筑以下五大优势:试错优势、触角优势、组织优势、系统优势和社会优势,而大数据将为金融机构建立这些优势提供新的工具和动力。从数

据到价值的转化与机构的整体转型相辅相成,“内嵌式变革”由此而生。

 

 例如,金融机构传统做法中按部就班的长周期模式(从规划、立项、收集数据到分析、试点、落地、总结)不再适用。快速试错、宽进严出成为了实现大数据价值

的关键:以低成本的方式大量尝试大数据中蕴藏的海量机会,一旦发现某些有价值的规律,马上进行商业化推广,否则果断退出。此外,大数据为金融机构打造“触

角优势”提供了新的工具,使其能够更加灵敏地感知商业环境,更加顺畅地搭建反馈闭环。此外,数据的聚合与共享为金融机构搭建生态系统提供了新的场景与动

力。

2.应用场景与基础设施—纵览海内外金融机构的大数据发展实践

 

 金融行业在发展大数据能力方面具有天然优势:受行业特性影响,金融机构在开展业务的过程中积累了海量的高价值数据,其中包括客户身份、资产负债情况、资

金收付交易等数据。以银行业为例,其数据强度高踞各行业之首—银行业每创收100万美元,平均就会产生820GB的数据。

2.1大数据的金融应用场景正在逐步拓展

大数据发出的声音已经在金融行业全面响起。作为行业中的“巨无霸”,银行业与保险业对大数据的应用尤其可圈可点。

2.1.1海外实践:全面尝试

2.1.1.1银行是金融行业中发展大数据能力的“领军者”

 

 在发展大数据能力方面,银行业堪称是“领军者”。纵观银行业的六个主要业务板块(零售银行、公司银行、资本市场、交易银行、资产管理、财富管理),每个

业务板块都可以借助大数据来更深入地了解客户,并为其制定更具针对性的价值主张,同时提升风险管理能力。其中,大数据在零售银行和交易银行业务板块中的应

用潜力尤为可观。

 

 BCG通过研究发现,海外银行在大数据能力的发展方面基本处于三个阶段:大约三分之一的银行还处在思考大数据、理解大数据、制定大数据战略及实施路径的

起点阶段。还有三分之一的银行向前发展到了尝试阶段,也就是按照规划出的路径和方案,通过试点项目进行测验,甄选出许多有价值的小机会,并且不停地进行试

错和调整。而另外三分之一左右的银行则已经跨越了尝试阶段。基于多年的试错经验,他们已经识别出几个较大的机会,并且已经成功地将这些机会转化为可持续的

商业价值。而且这些银行已经将匹配大数据的工作方式嵌入到组织当中。他们正在成熟运用先进的分析手段,并且不断获得新的商业洞察。

 

 银行业应用举例1:将大数据技术应用到信贷风险控制领域。在美国,一家互联网信用评估机构已成为多家银行在个人信贷风险评估方面的好帮手。该机构通过分

析客户在各个社交平台(如Facebook和Twitter)留下的数据,对银行的信贷申请客户进行风险评估,并将结果卖给银行。银行将这家机构的评估结

果与内部评估相结合,从而形成更完善更准确的违约评估。这样的做法既帮助银行降低了风险成本,同时也为银行带来了风险定价方面的竞争优势。

 

 相较于零售银行业务,公司银行业务对大数据的应用似乎缺乏亮点。但实际上,大数据在公司银行业务的风险领域正在发挥着前所未有的作用。在传统方法中,银

行对企业客户的违约风险评估多是基于过往的营业数据和信用信息。这种方式的最大弊端就是缺少前瞻性,因为影响企业违约的重要因素并不仅仅只是企业自身的经

营状况,还包括行业的整体发展状况,正所谓“覆巢之下,焉有完卵”。但要进行这样的分析往往需要大量的资源投入,因此在数据处理资源稀缺的环境下无法得到

广泛应用,而大数据手段则大幅减少了此类分析对资源的需求。西班牙一家大型银行正是利用大数据来为企业客户提供全面深入的信用风险分析。该行首先识别出影

响行业发展的主要因素,然后对这些因素一一进行模拟,以测试各种事件对其客户业务发展的潜在影响,并综合评判每个企业客户的违约风险。这样的做法不仅成本

低,而且对风险评估的速度快,同时显著提升了评估的准确性。

 

 银行业应用举例2:用大数据为客户制定差异化产品和营销方案。在零售银行业务中,通过数据分析来判断客户行为并匹配营销手段并不是一件新鲜事。但大数据

为精准营销提供了广阔的创新空间。例如,海外银行开始围绕客户的“人生大事”进行交叉销售。这些银行对客户的交易数据进行分析,由此推算出客户经历“人生

大事”的大致节点。人生中的这些重要时刻往往能够激发客户对高价值金融产品的购买意愿。一家澳大利亚银行通过大数据分析发现,家中即将有婴儿诞生的客户对

寿险产品的潜在需求最大。通过对客户的银行卡交易数据进行分析,银行很容易识别出即将添丁的家庭:在这样的家庭中,准妈妈会开始购买某些药品,而婴儿相关

产品的消费会不断出现。该行面向这一人群推出定制化的营销活动,获得了客户的积极响应,从而大幅提高了交叉销售的成功率。

 

 客户细分早已在银行业得到广泛应用,但细分维度往往大同小异,包括收入水平、年龄、职业等等。自从开始尝试大数据手段之后,银行的客户细分维度出现了突

破。例如,西班牙的一家银行从Facebook和Twitter等社交平台上直接抓取数据来分析客户的业余爱好。该行把客户细分为常旅客、足球爱好者、高

尔夫爱好者等类别。通过分析,该行发现高尔夫球爱好者对银行的利润度贡献最高,而足球爱好者对银行的忠诚度最高。此外,通过分析,该行还发现了另外一个小

客群:“败家族”,即财富水平不高、但消费行为奢侈的人群。这个客群由于人数不多,而且当前的财富水平尚未超越贵宾客户的门槛,因此往往被银行所忽略。但

分析显示这一人群能够为银行带来可观的利润,而且颇具成长潜力,因此该行决定将这些客户升级为贵宾客户,深入挖掘其潜在价值。

 

 在对公业务中,银行同样可以借助大数据形成更有价值的客户细分。例如,在BCG与一家加拿大银行的合作项目中,项目组利用大数据分析技术将所有公司客户

按照行业和企业规模进行细分,一共建立了上百个细分客户群。不难想象,如果没有大数据的支持,这样深入的细分是很难实现的。然后,项目组在每个细分群中找

出标杆企业,分析其银行产品组合,并将该细分群中其他客户的银行产品组合与标杆企业进行比对,从而识别出差距和潜在的营销机会。项目组将这些分析结果与该

行的对公客户经理进行分享,帮助他们利用这些发现来制定更具针对性的销售计划和话术,并取得了良好的效果。客户对这种新的销售方式也十分欢迎,因为他们可

以从中了解到同行的财务状况和金融安排,有助于对自身的行业地位与发展空间进行判断。

 

 银行业应用举例3:用大数据为优化银行运营提供决策基础。大数据不仅能在前台与中台大显身手,也能惠及后台运营领域。在互联网金融风生水起的当

下,“O2O”(OnlineToOffline)成为了银行的热点话题。哪些客户适合线上渠道?哪些客户不愿“触网”?BCG曾帮助西班牙一家银行通过

大数据技术应用对这些问题进行了解答。项目组对16个既可以在网点也可以在网络与移动渠道上完成的关键运营活动展开分析,建立了12个月的时间回溯深度,

把客户群体和运营活动按照网点使用强度以及非网点渠道使用潜力进行细分。分析结果显示,大约66%的交易活动对网点的使用强度较高,但同时对非网点渠道的

使用潜力也很高,因此可以从网点迁移到网络或移动渠道。项目组在客户细分中发现,年轻客户、老年客户以及高端客户在运营活动迁移方面潜力最大,可以优先作

为渠道迁徙的对象。通过这样的运营调整,大数据帮助银行在引导客户转移、减轻网点压力的同时保障了客户体验。

 

 BCG还曾利用专有的大数据分析工具NetworkMax,帮助一家澳大利亚银行优化网点布局。虽然银行客户的线上活动日渐增多,但金融业的铁律在互联

网时代依然适用,也就是说在客户身边设立实体网点仍然是金融机构的竞争优势。然而,网点的运营成本往往不菲,如何实现网点资源的价值最大化成为了每家银行

面临的问题。在该项目中,项目组结合银行的内部数据(包括现有的网点分布和业绩状况等)和外部数据(如各个地区的人口数量、人口结构、收入水平等),对

350多个区域进行了评估,并按照主要产品系列为每个区域制定市场份额预测。项目组还通过对市场份额的驱动因素进行模拟,得出在现有网点数量不变的情况下

该行网点的理想布局图。该行根据项目组的建议对网点布局进行了调整,并取得了良好的成效。这个案例可以为许多银行带来启示:首先,银行十分清楚自身的网点

布局,有关网点的经营业绩和地址的信息全量存在于银行的数据库中。其次,有关一个地区的人口数量、人口结构、收入水平等数据都是可以公开获取的数据。通过

应用大数据技术来把这两组数据结合在一起,就可以帮助银行实现网点布局的优化。BCG基于大数据技术而研发的Network

Max正是用来解决类似问题的工具。

 

 银行业应用举例4:创新商业模式,用大数据拓展中间收入。过去,坐拥海量数据的银行考虑的是如何使用数据来服务其核心业务。而如今,很多银行已经走得更

远。他们开始考虑如何把数据直接变成新产品并用来实现商业模式,进而直接创造收入。例如,澳大利亚一家大型银行通过分析支付数据来了解其零售客户的“消费

路径”,即客户进行日常消费时的典型顺序,包括客户的购物地点、购买内容和购物顺序,并对其中的关联进行分析。该银行将这些分析结果销售给公司客户(比如

零售业客户),帮助客户更准确地判断合适的产品广告投放地点以及适合在该地点进行推广的产品。这些公司客户过去往往需要花费大量金钱向市场调研公司购买此

类数据,但如今他们可以花少得多的钱向自己的银行购买这些分析结果,而且银行所提供的此类数据也要可靠得多。银行通过这种方式获得了传统业务之外的收入。

更重要的是,银行通过这样的创新为客户提供了增值服务,从而大大增强了客户粘性。

大数据的大未来及价值所在

大数据的大未来及价值所在

大数据作为一个尚未完全普及的概念,其实已经贯穿在每个人日常生活的方方面面。而随着科技的进步,大数据也在逐渐从数据本身向着数据之间所蕴含的更丰富的前景发展。

全球大数据现状

大数据(big data),或称海量数据,是由数量巨大、结构复杂、类型众多数据构成的数据集合,其所涉及的数据量规模巨大到无法透过目前主流软件工具,在合理时间内达到撷取、管理、处理的目的。大数据是基于云计算的数据处理与应用模式,通过数据的整合共享,交叉复用形成的智力资源和知识服务能力。

大数据并非一个新出现的概念。1980年,著名未来学家阿尔文·托夫勒在《第三次浪潮》一书中,将大数据热情地赞颂为“第三次浪潮的华彩乐章”。不过,大约从2009年开始,“大数据”才成为互联网信息技术行业的流行词汇。美国互联网数据中心指出,互联网上的数据每年将增长50%,每两年便将翻一番,而目前世界上90%以上的数据是最近几年才产生的。同时,全世界的工业设备、汽车、电表上有着无数的数码传感器,随时测量和传递着有关位置、运动、震动、温度、湿度乃至空气中化学物质的变化,也产生了海量的数据信息。IDC2012年发布的数字宇宙研究报告(Digital Universe)显示,接下来的8年中,我们所产生的数据量将超过40 ZB(Zettabyte,即十万亿亿字节,1ZB=230TB),相当于地球上每个人产生5200GB的数据。

我们正处于一个数据爆炸式增长的时代

大数据本身只是复杂而几乎无序的数据,而其背后的关联性,才是大数据巨大的价值所在。目前众多大数据研究的重中之重,就是从海量的数据中提取相关内容,形成有意义、有价值的讯息。这个过程基本可以分为三个阶段。

数据即信息阶段。在这个阶段中,数据本身就是信息的所在。比如网络用户的身份信息、天气信息等。这些信息本身具有价值,在特定领域中能够直接应用,因此在大数据尚未崛起时就已经受到很多关注。然而随着当前来自不同渠道的大量数据表面相关性的降低,数据本身所提供的价值越来越具有局限性。因此这一阶段已经逐渐稳定在一些特定行业中。

数据蕴含信息阶段。在发现数据信息本身的局限性后,人们开始越来越多地研究数据内部的相关性,亦即数据间所蕴含的信息。随着移动互联网和社交媒体的普及,数据相关性正在逐渐取代因果关系,成为连接互联网数据的最重要因素。新闻聚合服务Techmeme的编辑发表文章称,网络已经进入了“相关性时代”。例如,电商可以通过用户的网页浏览记录、所在区域和性别年龄等相关信息,推测出用户的购物喜好,从而进行针对性的精准广告投放等。

孤立数据之间的相关性才是大数据的价值所在

纽约时报博客作者和统计学家Nate Silver凭借自己建立的数学模型,通过对大量数据的分析和统计,在2008年美国大选中曾准确预测了49个州的选举结果,而2012年的美国大选则准确预测了全部50个州的选举结果,在美国乃至全世界激起了对大数据及其相关性统计的追捧。目前大数据应用很多就处于这个阶段,如facebook和谷歌同样基于数据相关性分析推出的“社交图谱”和“知识图谱”,并将其应用于自身的产品中。

数据预测信息阶段。随着技术发展和大数据分析的不断深入,会有越来越多的数据进入庞大的数据库中,供系统进行更加精确分析和决策。比如,可穿戴设备提供了更多用户的身体状态数据,车联网、物联网不断记录着用户的行为倾向性数据,庞大的社交信息承载着新闻发展的趋势……而这些信息无一不是大数据的组成部分。

而随着计算能力的增强,一旦多种大数据之间记录、读取和分析的隔阂被打通,可供计算和决策的数据量就会显著增加,由此而来的更加智能化的网络将具有更加针对性的服务,甚至能够预测用户的行为并提前作出响应。未来用户也许会拥有随着情绪变化色彩的服装、根据爱好自动切换的电视节目、走到旁边自动开锁的汽车,以及更多无法想象的智能化应用,实现智能家居、智能城市。而这一切,都得益于不断增长、成熟的大数据分析处理。事实上,在这种情况下,每个用户就成为了数据本身。

这三个阶段,并没有明确的界限和区别,而是一个不断演进的过程。大数据随着人的发展而不断积累,也随着科技的发展不断被更有效地利用,成为这个时代最具价值的一笔财富。当然,当前的科技还远远没有达到实现第三阶段的水平:数据的存储、计算能力,网络的吞吐量,各个数据源之间的互联互通等等都是亟待解决的问题,而大数据所带来的产业结构调整、用户隐私问题甚至人们生活方式的变化,也都需要更多时间去研究和摸索。不过这些并不能掩盖大数据蕴含的巨大潜力,相信随着时间发展,大数据业务能够带来更多令人惊喜的创新和改变。

如今的大数据到底发展到了什么阶段

从应用角度来说,大数据领域已有众多成功的大数据应用,但就其效果和深度而言,当前大数据应用尚处于初级阶段,根据大数据分析预测未来、指导实践的深层次应用将成为发展重点。当前,在大数据应用的实践中,描述性、预测性分析应用多,决策指导性等更深层次分析应用偏少。

从治理角度来说,大数据治理体系远未形成,特别是隐私保护、数据安全与数据共享利用效率之间尚存在明显矛盾,成为制约大数据发展的重要短板,各界已经意识到构建大数据治理体系的重要意义。其中,隐私、安全与共享利用之间的矛盾问题尤为凸显。一方面,数据共享开放的需求十分迫切;另一方面,数据的无序流通与共享,又可能导致隐私保护和数据安全方面的重大风险,必须对其加以规范和限制。

从技术角度来说,数据规模高速增长,现有技术体系难以满足大数据应用的需求,大数据理论与技术远未成熟,未来信息技术体系将需要颠覆式创新和变革。近年来,大数据获取、存储、管理、处理、分析等相关的技术已有显著进展,但是大数据技术体系尚不完善,大数据基础理论的研究仍处于萌芽期。

面对大数据中国和美国的数据中心有什么不同

没什么不同,只能说应用的领域和接触的长短不同吧。如果还想知道更多的大数据问题,ITjob网有大数据的相关介绍,博客和论坛也有大数据的讨论和观点,你可以去看看。下面给你粘贴下大数据在中国和美国的应用时间和领域。希望能帮到你。

大数据在中国的发展相对比较年轻。2012年,中国政府在美国提出《大数据研究和发展计划》并且批复了“十二五国家政务信息化建设工程规划”,总投资额估计在几百亿,专门有人口、法人、空间、宏观经济和文化等五大资源库的五大建设工程。我国的开放、共享和智能的大数据的时代才真正大面积的开始。

而美国政府将大数据视为强化美国竞争力的关键因素之一,把大数据研究和生产计划提高到国家战略层面。2012年3月,美国奥巴马政府宣布投资2亿美元启动“大数据研究和发展计划”,这是继1993年美国宣布“信息高速公路”计划后的又一次重大科技发展部署。美国政府认为大数据是“未来的新石油与矿产”,将“大数据研究”上升为国家意志,对未来的科技与经济发展必将带来深远影响。

Marketsand Markets公布的最新报告显示,2013年至2018年,全球大数据市场的年复合增长率将为26%,从2013年的148.7亿美元增长至463.4亿美元。

大数据时代发展历程是什么?

大数据技术发展史:大数据的前世今生

今天我们常说的大数据技术,其实起源于Google在2004年前后发表的三篇论文,也就是我们经常听到的“三驾马车”,分别是分布式文件系统GFS、大数据分布式计算框架MapReduce和NoSQL数据库系统BigTable。

你知道,搜索引擎主要就做两件事情,一个是网页抓取,一个是索引构建,而在这个过程中,有大量的数据需要存储和计算。这“三驾马车”其实就是用来解决这个问题的,你从介绍中也能看出来,一个文件系统、一个计算框架、一个数据库系统。

现在你听到分布式、大数据之类的词,肯定一点儿也不陌生。但你要知道,在2004年那会儿,整个互联网还处于懵懂时代,Google发布的论文实在是让业界为之一振,大家恍然大悟,原来还可以这么玩。

因为那个时间段,大多数公司的关注点其实还是聚焦在单机上,在思考如何提升单机的性能,寻找更贵更好的服务器。而Google的思路是部署一个大规模的服务器集群,通过分布式的方式将海量数据存储在这个集群上,然后利用集群上的所有机器进行数据计算。 这样,Google其实不需要买很多很贵的服务器,它只要把这些普通的机器组织到一起,就非常厉害了。

当时的天才程序员,也是Lucene开源项目的创始人Doug Cutting正在开发开源搜索引擎Nutch,阅读了Google的论文后,他非常兴奋,紧接着就根据论文原理初步实现了类似GFS和MapReduce的功能。

两年后的2006年,Doug Cutting将这些大数据相关的功能从Nutch中分离了出来,然后启动了一个独立的项目专门开发维护大数据技术,这就是后来赫赫有名的Hadoop,主要包括Hadoop分布式文件系统HDFS和大数据计算引擎MapReduce。

当我们回顾软件开发的历史,包括我们自己开发的软件,你会发现,有的软件在开发出来以后无人问津或者寥寥数人使用,这样的软件其实在所有开发出来的软件中占大多数。而有的软件则可能会开创一个行业,每年创造数百亿美元的价值,创造百万计的就业岗位,这些软件曾经是Windows、Linux、Java,而现在这个名单要加上Hadoop的名字。

如果有时间,你可以简单浏览下Hadoop的代码,这个纯用Java编写的软件其实并没有什么高深的技术难点,使用的也都是一些最基础的编程技巧,也没有什么出奇之处,但是它却给社会带来巨大的影响,甚至带动一场深刻的科技革命,推动了人工智能的发展与进步。

我觉得,我们在做软件开发的时候,也可以多思考一下,我们所开发软件的价值点在哪里?真正需要使用软件实现价值的地方在哪里?你应该关注业务、理解业务,有价值导向,用自己的技术为公司创造真正的价值,进而实现自己的人生价值。而不是整天埋头在需求说明文档里,做一个没有思考的代码机器人。

Hadoop发布之后,Yahoo很快就用了起来。大概又过了一年到了2007年,百度和阿里巴巴也开始使用Hadoop进行大数据存储与计算。

2008年,Hadoop正式成为Apache的顶级项目,后来Doug Cutting本人也成为了Apache基金会的主席。自此,Hadoop作为软件开发领域的一颗明星冉冉升起。

同年,专门运营Hadoop的商业公司Cloudera成立,Hadoop得到进一步的商业支持。

这个时候,Yahoo的一些人觉得用MapReduce进行大数据编程太麻烦了,于是便开发了Pig。Pig是一种脚本语言,使用类SQL的语法,开发者可以用Pig脚本描述要对大数据集上进行的操作,Pig经过编译后会生成MapReduce程序,然后在Hadoop上运行。

编写Pig脚本虽然比直接MapReduce编程容易,但是依然需要学习新的脚本语法。于是Facebook又发布了Hive。Hive支持使用SQL语法来进行大数据计算,比如说你可以写个Select语句进行数据查询,然后Hive会把SQL语句转化成MapReduce的计算程序。

这样,熟悉数据库的数据分析师和工程师便可以无门槛地使用大数据进行数据分析和处理了。Hive出现后极大程度地降低了Hadoop的使用难度,迅速得到开发者和企业的追捧。据说,2011年的时候,Facebook大数据平台上运行的作业90%都来源于Hive。

随后,众多Hadoop周边产品开始出现,大数据生态体系逐渐形成,其中包括:专门将关系数据库中的数据导入导出到Hadoop平台的Sqoop;针对大规模日志进行分布式收集、聚合和传输的Flume;MapReduce工作流调度引擎Oozie等。

在Hadoop早期,MapReduce既是一个执行引擎,又是一个资源调度框架,服务器集群的资源调度管理由MapReduce自己完成。但是这样不利于资源复用,也使得MapReduce非常臃肿。于是一个新项目启动了,将MapReduce执行引擎和资源调度分离开来,这就是Yarn。2012年,Yarn成为一个独立的项目开始运营,随后被各类大数据产品支持,成为大数据平台上最主流的资源调度系统。

同样是在2012年,UC伯克利AMP实验室(Algorithms、Machine和People的缩写)开发的Spark开始崭露头角。当时AMP实验室的马铁博士发现使用MapReduce进行机器学习计算的时候性能非常差,因为机器学习算法通常需要进行很多次的迭代计算,而MapReduce每执行一次Map和Reduce计算都需要重新启动一次作业,带来大量的无谓消耗。还有一点就是MapReduce主要使用磁盘作为存储介质,而2012年的时候,内存已经突破容量和成本限制,成为数据运行过程中主要的存储介质。Spark一经推出,立即受到业界的追捧,并逐步替代MapReduce在企业应用中的地位。

一般说来,像MapReduce、Spark这类计算框架处理的业务场景都被称作批处理计算,因为它们通常针对以“天”为单位产生的数据进行一次计算,然后得到需要的结果,这中间计算需要花费的时间大概是几十分钟甚至更长的时间。因为计算的数据是非在线得到的实时数据,而是历史数据,所以这类计算也被称为大数据离线计算。

而在大数据领域,还有另外一类应用场景,它们需要对实时产生的大量数据进行即时计算,比如对于遍布城市的监控摄像头进行人脸识别和嫌犯追踪。这类计算称为大数据流计算,相应地,有Storm、Flink、Spark Streaming等流计算框架来满足此类大数据应用的场景。 流式计算要处理的数据是实时在线产生的数据,所以这类计算也被称为大数据实时计算。

在典型的大数据的业务场景下,数据业务最通用的做法是,采用批处理的技术处理历史全量数据,采用流式计算处理实时新增数据。而像Flink这样的计算引擎,可以同时支持流式计算和批处理计算。

除了大数据批处理和流处理,NoSQL系统处理的主要也是大规模海量数据的存储与访问,所以也被归为大数据技术。 NoSQL曾经在2011年左右非常火爆,涌现出HBase、Cassandra等许多优秀的产品,其中HBase是从Hadoop中分离出来的、基于HDFS的NoSQL系统。

我们回顾软件发展的历史会发现,差不多类似功能的软件,它们出现的时间都非常接近,比如Linux和Windows都是在90年代初出现,Java开发中的各类MVC框架也基本都是同期出现,Android和iOS也是前脚后脚问世。2011年前后,各种NoSQL数据库也是层出不群,我也是在那个时候参与开发了阿里巴巴自己的NoSQL系统。

事物发展有自己的潮流和规律,当你身处潮流之中的时候,要紧紧抓住潮流的机会,想办法脱颖而出,即使没有成功,也会更加洞悉时代的脉搏,收获珍贵的知识和经验。而如果潮流已经退去,这个时候再去往这个方向上努力,只会收获迷茫与压抑,对时代、对自己都没有什么帮助。

但是时代的浪潮犹如海滩上的浪花,总是一浪接着一浪,只要你站在海边,身处这个行业之中,下一个浪潮很快又会到来。你需要敏感而又深刻地去观察,略去那些浮躁的泡沫,抓住真正潮流的机会,奋力一搏,不管成败,都不会遗憾。

正所谓在历史前进的逻辑中前进,在时代发展的潮流中发展。通俗的说,就是要在风口中飞翔。

上面我讲的这些基本上都可以归类为大数据引擎或者大数据框架。而大数据处理的主要应用场景包括数据分析、数据挖掘与机器学习。数据分析主要使用Hive、Spark SQL等SQL引擎完成;数据挖掘与机器学习则有专门的机器学习框架TensorFlow、Mahout以及MLlib等,内置了主要的机器学习和数据挖掘算法。

此外,大数据要存入分布式文件系统(HDFS),要有序调度MapReduce和Spark作业执行,并能把执行结果写入到各个应用系统的数据库中,还需要有一个大数据平台整合所有这些大数据组件和企业应用系统。

图中的所有这些框架、平台以及相关的算法共同构成了大数据的技术体系,我将会在专栏后面逐个分析,帮你能够对大数据技术原理和应用算法构建起完整的知识体系,进可以专职从事大数据开发,退可以在自己的应用开发中更好地和大数据集成,掌控自己的项目。

希望对您有所帮助!~

谈谈美国是如何运用大数据来维护国家安全。300字

美国政府将大数据视为强化美国竞争力的关键因素之一,把大数据研究和生产计划提高到国家战略层面。3月29日,奥巴马政府宣布投资2亿美元启动《大数据研究和发展计划》,希望增强收集海量数据、分析萃取信息的能力。以美国科学与技术政策办公室(OSTP)为首,国土安全部、美国国家科学基金会、国防部、美国国家安全局、能源部等已经开始了与民间企业或大学开展多项大数据相关的各种研究开发。美国政府为之拨出超过2亿美元的研究开发预算。奥巴马指出,通过提高从大型复杂的数字数据集中提取知识和观点的能力,承诺帮助加快在科学与工程中的步伐,改变教学研究,加强国家安全。据悉,美国国防部已经在积极部署大数据行动,利用海量数据挖掘高价值情报,提高快速响应能力,实现决策自动化。而美国中央情报局通过利用大数据技术,将分析搜集的数据时间由63天缩减到27分钟。

结语:以上就是首席CTO笔记为大家介绍的关于美国处于大数据应用的哪个阶段的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/BigData/48416.html