实用篇:如何建立落地型数据分析or数据挖掘流程?

实用篇:如何建立落地型数据分析or数据挖掘流程?

数据工作者最长也是有效的一种工作方式是带项目,无论是数据分析还是专项挖掘,项目制能使数据尽量贴近业务并且有效理解业务和数据的各个维度。那么如何建立面向业务落地的数据分析(挖掘)流程?

在做本篇介绍之前,有以下几个方向需要做一个界定,这些界定是做本篇的前提:

该项目流程是面向业务层的,直接通过模型做代码优化或者以BI技术为方向的不同;
该项目的领导者是具有一定能力的数据分析师,需要具备业务常识、数据理解能力和专项分析挖掘能力,说白了,能接受问题并且能解决问题;
该项目是以业务落地为导向的,那些面向市场分析方向的战略项目等不在此列。

在以上的界定下,我们放心的来谈本篇的核心,我相信大多数一线的数据分析师都能适用这套流程。完整的数据分析(挖掘)流程包括:需求提报审核、商业理解、数据理解、专项分析(建模)、部署与实施优化、项目总结六大部分。

实用篇:如何建立落地型数据分析or数据挖掘流程?
一、需求提报

任何数据分析的起点都是从业务需求开始的。在收到业务需求后,首先要做的还不是业务够通,是考量这个需求是否可以受理。导致需求不能受理的原因包括业务需求本身是个伪命题以及目前的数据无法支撑该需求的分析。

目的:第一步需求提报的审核目的是找到最佳需求命题,并确定该命题的可行性。
输出物料:无
周期:1天内响应

二、商业理解

商业理解包括业务语言转化成数据语言的整个过程,目的是确定业务通过数据需要实现的具体纬度,粒度,数据范围等,通过方案思路进行二次确认。确认思路后,会正式开始项目的数据部分工作。

目的:确认业务逻辑、数据分析需求、数据产出内容方向及分析思路。
输出物料:分析思维导图、测试数据
周期:2天

三、数据准备

数据准备是对即将进行的分析和挖掘工作进行预处理,包括从数据仓库中取数,验证数据质量,数据特征提取,异常值处理,数据转换,合并等,为最终的数据分析挖掘做准备。这个阶段是非常费时但是重要的工作,前期这个工作做不好会直接影响数据质量。

目的:数据前期清洗。
输出物料:数据
周期:4天

四、专项分析(建模)

经过需求确认,数据清洗之后,开始了专项数据分析和挖掘工作,包括常用的描述性数据统计、数据分类、聚类、管理、序列、规则提取等建模工作,并在专项分析或建模结束后完成模型测试工作,保持模型的稳定性和最佳拟合度。

目的:报告撰写、模型搭建。
输出物料:分析报告、建模流程和节点、模型评估报告等
周期:7天

五、部署与实施优化

本阶段包括数据结果输出,方式可能是邮件、会议类(通常是二者配合),在业务报告沟通中确认落地执行计划,并安排排期和计划方案,同时数据分析师进行数据收集,等业务执行完毕后进行效果再评估,并根据评估结果优化前期报告或模型结果。

目的:数据落地。
输出物料:业务执行计划、落地排期、数据落地收集计划等
周期:14天(根据所需数据量和业务时间需求而定)

六、项目总结

在整个项目结束后,进行整体总结,反思本项目整个过程,包括前期需求沟通与确认是否清晰,中期数据处理、分析和挖掘如何优化,后期数据落地效果和建议等,对整个项目有新的认知,最终为下一次项目积累经验。如果有必要,可以跟业务一起沟通讨论本次项目的优劣得失。另外,不是所有的有效项目都是以成功结束,失败的项目也可以为我们带来启发,最起码能说明业务的逻辑或出发点不可行。

目的:经验总结
输出物料:项目总结报告
周期:1天

只会做挖掘、只会写报告的数据分析师只能算一半,另一半就是如何把我们的思想、建议融入业务中,真正让他们理解并付诸实践。这才是数据分析师存在的真正价值

作者:TonySong,Webtrekk Business Consultant,网站分析和数据从业者和爱好者,前国美在线数据分析经理,百度文库认证作者,站长之家专栏作家。 微信公众号:宋天龙

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

实用篇:如何建立落地型数据分析or数据挖掘流程?

End.



转载请注明:36大数据 » 实用篇:如何建立落地型数据分析or数据挖掘流程?

数据新闻与大数据运用有何关联?

【摘 要】数据新闻利用数据拓展新闻的时空范围,深化对新闻事实的认知,发现常规新闻中不能体现的逻辑,从而丰富了单篇新闻报道的内涵,新闻样态也从封闭式告知话语转换为开放式工具,用户可以使用这些工具获取多元的信息。但是,数据新闻到底是什么?它与数字新闻、大数据运用有何关联?在对数据新闻的认知中,还有相当多的认知误区。将结合案例廓清相关概念,并分析大数据思维在新闻中的应用及其局限性。

数据新闻与大数据运用有何关联?

数据新闻如今已经风靡世界,成了新闻业界创新的法宝。数据新闻利用数据挖掘可以延伸新闻中单一事件、现时信息的意义,拓展新闻的时空范围,深化对新闻事实的认知,发现常规新闻中不能体现的逻辑,从而丰富了单篇新闻报道的内涵,新闻样态也从封闭式告知话语转换为开放式工具,用户可以使用这些工具获取多元的信息。

但是,数据新闻到底是什么?它与数字新闻、大数据运用有何关联?“大数据新闻”为何不是一类新闻?程序员、统计师能取代记者吗?在对数据新闻的认知中,还有相当多的认知误区;数据新闻也有被滥用之嫌,其实它不是万能的;数据新闻也有其困境,它的内容和形态有着局限性。因此,本文将结合案例廓清相关概念,并分析大数据思维在新闻中的应用及其局限性。

数字图表不等于数据新闻

近两年大数据成为时髦,不少媒体就以简单的数字统计,来充当“数据新闻”。但是,只列有数字,那还不是数据新闻。关于数字、数据、大数据,数字化与数据化,数字新闻与数据新闻等概念,目前还存在一些混淆的情况。

“数据”不等于数字,也不一定是数字,它是对事件的一种描述,数据可以记录、分析和重组事件。“大数据”不只表示数据量大一些,它是指无法在一定时间内用常规软件工具对其内容进行抓取、管理和处理的数据集合。它的特点是:数据量大,数据类型多样,处理速度快,价值密度低。

“数据化”简单地说,是把现象转变为可制表分析的量化形式。“数字化”是指把模拟数据转换成0和1表示的二进制码,从而使电脑可以处理那些数据。①“数字新闻”是指对文本、图片、视频等进行数字化,从而通过互联网技术能传输的新闻报道。“数据新闻”是指用数据驱动的新闻,是内容量化了的报道,是用数据作为表述形式的新闻。数据新闻很少是以大数据驱动的。“大数据新闻”其实并不能成为一类新闻,而是以大数据的思维和工具做成的新闻,是将大数据思维内化到生产实践及样态创新之中。是基于互联网及其衍伸技术平台实现的以大量数据搜集与分析为主要工具而生产出来的新闻,主要是数据新闻,通常是以图表等形式,通过对一系列的简要事实的相关性的表达,揭示出事实背后的意义。因此,目前一些媒体以数字、图表罗列的新闻,并不是数据新闻。

为什么专业新闻工作者是必要的

随着自媒体的出现,专业记者将不再需要的议论甚嚣尘上。如今数据新闻又催生了一些新的报道者,比如“程序员记者”,即计算机程序员因为其技术的使用,成为了报道者,比如美国芝加哥论坛报之“犯罪新闻”(Crime in Chicagoland)网页的程序员;“统计师记者”,即懂得统计的工作人员当上了信息报道者,比如博客“FiveThirtyEight” 博主内特·斯弗(Nate Silver)。②那么专业记者还有存在的必要吗?当然还是需要的,只是对专业新闻工作者的要求变得更高,他们不仅要理解统计、设计,而且要有新闻专业的敏锐性。

数据本身并不具备多大的新闻价值,有时数据带有欺骗性,需要记者从纷繁复杂的数据、报道中寻找灵感,去发现其中的意义,发掘新闻的深层或新鲜的价值。举例来说,股票行情天天向所有人公开,密密麻麻的名称中,某一只股票的价格,在什么情况下会有比较大的新闻价值呢?彭博新闻社就从中找到了独特的新闻价值。彭博的记者通过对过去10年在上海证券交易所交易的股票进行分析,发现贵州茅台酒业股票自2002年11月至2012年10月,10年间上涨达3451%,如今高达410亿美元,成为世界第二大造酒公司。这算是一个很好的发现,具备了新闻价值的“新鲜性”。其中还有什么意义呢?这些数字是中国经济发展速度的证据之一,它也表明中国的经济发展带来的社会变迁:中国经济10年来的发展,已经造就了一个富裕阶层,他们对奢侈品类的需求,刺激了相关消费,因此出现了茅台酒及其股票的大幅增长。因此新闻又有了“重要性”价值。重要性还可以再扩大吗?是的,时值中国十八大期间,通过数据挖掘报道的中国经济发展及其影响,“重要性”价值就更大了。其实我们也可以把上述新闻看作是一个独到的对中国十八大的解读,因为要报道十八大,所以才有了记者的各种想象和挖掘。一位单纯的程序员、统计师,是很难发掘出这样的新闻价值的。

与传统的新闻形态相比,数据新闻为单一事实或信息提供更多的表述可能、更深的逻辑关系、更大的想象空间。用数据新闻的引领者彭博新闻社的负责人的话来说,是一种“简单而优雅的呈现观点以及点燃想象力的”的方式。③如何才能点燃用户的想象力?需要专业工作者具备更全面的知识和能力。

运用大数据思维的新闻更科学更有效吗

传统的新闻是从哪儿来的?也就是新闻判断是如何形成的?是依靠新闻记者的新闻直觉、新闻敏感——有一种叫news sense(新闻敏感)的意识,它是有赖记者的知识、水平、经验、视野而形成的一种意识,虽然是来自客观世界,但是也不排除“先验性”。在西方的新闻教材里,就有新闻鼻(news nose)、新闻眼(news eyes)之说,有些记者的五官更灵敏,从一些小细节能“嗅”到多少英里之外的新闻。

大数据思维主要包括三个方面,即:总体样本取代随机样本;对不精确的容忍度增加;相关关系取代因果关系。④那么大数据思维下的新闻判断,是如何形成的呢?这里仅以其第一方面——样本的总体性思维来说。

传统的新闻是在记者的新闻敏感的基础上判断、采集发布的。记者认为这件事、那件事很有新闻价值,对社会的多数人会有吸引力和影响力。一般记者只会以个别人物或事件作为采访对象,并通常认为这些事对多数人有意义。这是用的“随机样本”的方式,进行的新闻工作,其中包含了偶遇式新闻采访(如“街采”)、先验式的新闻敏感。而大数据思维则有能力获取“总体样本”,通过分析所有用户的需求和兴趣,从而得出新闻价值的判断。

比如2014年春节前后,中央电视台《新闻联播》编辑部的“‘据’说春运”、“‘据’说春节”栏目,即是以百度的搜索大数据为基础做的系列报道,它呈现的不只是炫目的可视化数据信息,不只是新闻形态的一种改变,而且还从大数据中找到做新闻的点,展开关于春运、春节的故事。内容的选择不再只是从传者视角单方面揣测新闻敏感,而且融入了用户的需求,基本上是点餐式的服务。设想一下,这样的新闻不仅与信息接受者之间形成了内在的互动关系,而且带活了内容,真正是贴近了受众,而且也对一些传统媒体的年长化、老龄化的受众形势,有积极的干预效果,能够吸引更广大各年龄层面的受众。

大数据思维带来了新闻内容的创新,是一种融合媒体的形态驱动的新闻报道的创新。融合媒体的概念,在上世纪80年代是关于技术形态方面的,90年代进入了产业化层面,如今进入用户层面的迁移或者迁徙,是更新的融合。用户层面的迁徙,最终会引发内容的融合。通过大数据找到了特别贴近用户的报道话题,这些话题实际上是网民们感兴趣的。网民集中于45岁以下、甚至更多为18岁到35岁之间的人群,他们不是传统意义上的报纸读者、电视观众。他们带动传统媒体的话题年轻化了,实际上是网民参与了新闻报道,必然逼迫内容要进行改革,所以大数据思维带来了从形态到内容上的新闻创新。

大数据在新闻中的应用及其困境

大数据时代,数据新闻不只给新闻工作者提出了更高要求,也给政府、社会、媒体机构带来了挑战。一些媒体已经在不断开发新的工具,来满足数据新闻的需求,比如英国卫报、美国纽约时报不仅在扩展自己的数据库,而且在技术上也提供了许多可能性,尤其是开源的方式,给用户提供了工具、也让用户带来了丰富的数据。华尔街日报开发的“中国经济追踪器”,就是一个中英双语的数据新闻工具,它为中国的读者和记者提供了便利,特别“为那些与中国经济数据斗争多年焦头烂额的外媒记者指了一条明路。”⑤路透社香港分社曾推出“关系中国”(Connected China)平台,他们从中国政府官方网站和出版物、中国及世界媒体报道、外国政府分析报告、学术论文等多渠道汇聚到上万个权利实体(机构和个人)、3万余条关系、150万文档(相当于20本非虚构类图书)的数据量,将海量数据划分为“职业比较——行政级别升降”等几大主题,开发基于HTML五代技术制成的数据、图片、文档和视频无缝链接的平台。

传媒机构可以从以下渠道获取数据:与政府、企业、科研机构等部门实行数据共享,并通过新闻监督职能不断推进“数据公开”运动;网络数据(特别是社交媒体数据)的筛选与使用,这类社交媒体信息过滤工具能够帮助记者在突发性灾难中通过现场勘探施救人员和志愿者的社交账号,筛选并核实新闻事实;传感器数据的捕捉及挖掘。传感器装置逐渐普及到人们日常生活中,形成的数据网络,美国NPR记者就开始由此探索记者自己编织数据库的潜能;将媒体既有的资料数据化;学术数据再利用;自行展开调查搜集数据。

值得一提的是,大数据的应用不是万能的。首先大数据是掌握在少数权威机构、信息服务商的手里,对于大多数媒体机构来说,是很难获得的;第二是新闻记者个体,不仅难以获得数据,而且如果没有集团式的操作团队,也难以充分分析、呈现大数据;第三是大数据思维本身的特质,在某些方面与新闻的特质是相悖的。大数据本身就是不精确的,这与新闻的精确性要求相悖;大数据是整体样本的,这又与新闻的追求个性化、独到相悖。当然,媒体机构与新闻工作者也可以化不利为有利,比如从不精确的总体样本中发现趋势和规律,从中找到自己的个性化的新闻点,并且通过精确的信息衍生出自己的故事。

(陈昌凤:清华大学新闻与传播学院教授、副院长;乌日吉木斯:清华大学新闻与传播学院博士生)

注释:

①[英]维克托·迈尔·舍恩伯格、肯尼思·库克耶著:《大数据时代》,盛杨燕、周涛译,浙江人民出版社,第104页。

②陈昌凤:《自主的媒体人与个人专营网站的崛起》,《新闻与写作》,2013年第9期。

③ 陈昌凤、刘少华:《大数据时代如何做新闻》,《新闻与写作》,2013年第1期。

④[英]维克托·迈尔·舍恩伯格、肯尼思·库克耶著:《大数据时代》,盛杨燕、周涛译,浙江人民出版社,第27-96页。

⑤http://djchina.org/2014/02/12/viztool_econ1/

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

数据新闻与大数据运用有何关联?

End.



转载请注明:36大数据 » 数据新闻与大数据运用有何关联?

为什么视频网站都在谈大数据?

最近各个视频大佬都爱“勾搭”上“大数据”,当中有些做法也不算太新鲜,只是在大数据概念被热炒后,以一个更时尚、更系统的姿态出来和大家见面了。

为什么视频网站都在谈大数据?

这几个月陆续参加了一些视频网站的发布会和访谈,发现除了“独播”这种“老生常谈”的话题外,“大数据”开始成为视频网站宣传时最爱的词儿,而且涵盖到各类节目:土豆和深圳卫视合作“青春的选择”颁奖晚会时会特意强调大数据在晚会制作时起到的关键作用;优酷在推《老男孩》电影版时着重突出这是一部基于互联网、大数据“反向”生产的电影,爱奇艺PPS在高调宣传《爱情公寓4》时,重点甚至从全网独播变成了联合艺恩咨询发布的《大数据成就网络现象剧》的白皮书。

从白皮书的内容看,所谓大数据对爱奇艺、《爱情公寓4》这次发布大概有四个方面的价值:

1、 在一些关键事件节点判断通过一些比较成熟的手段来判断电视剧的热度,比如《爱3》结局、《爱4》开机和“误传”首播日时通过百度指数判断《爱情公寓4》的热度,以指导传播和开播节奏。(甚至如果阴暗点猜测的话,也许也有判断炒作效果的考虑。)

2、 网络取材。这个比较容易理解,《爱情公寓》系列本来就融合了大量网民生产传播的喜闻乐见的段子。

3、作为播出平台对内容制作的贡献。比如爱奇艺在2013年推出了一个“滤镜”,根据用户的收视纪录、数据计算出每集的精华,如把40分钟的剧集浓缩到10分钟,而且可以实时更新。一方面给时间有限的用户多一个选择,另一方面据说可以指导电视剧下一季的制作,比如哪些笑料可以保留,哪些老梗过时了。

4、精准营销。这个是包括视频网站在内的所有新媒体都喜欢谈的一个话题,在此不多说了。

归纳来说,大数据的价值可以覆盖传播、生产和广告各个层面。但是坦诚的说,上述四个方面和IBM们热捧的大数据概念其实还不那么完全匹配,毕竟有些做法其实也不算太新鲜,只是在大数据概念被热炒后,以一个更时尚、更系统的姿态出来和大家见面了。

这背后所代表的,视频网站在这几年发展中策略转变的结果——说句可能是题外话,对这份明显是为爱情公寓和爱奇艺定制的白皮书而言,我觉得在大数据概念和数字之外,所描述的视频业竞争策略的变化是更有价值的信息——因此以下观点和内容一方面来自我在业内的采访,另一方面也参考了这份白皮书所谈的东西。

在几年前,视频业关键词大概发生了几次重大变化:最初是日益增长的成本(服务器带宽)和盈利模式之间的矛盾;其后变成正版盗版、血拼内容(独家)采购,为此几个视频网站还搞过价格联盟,后来发现这也不是个办法,因为带来了新的问题,内容同质化;所以现在各个视频网站在依旧强调内容采购的基础上,开始了新的策略——而且我并不认为大热的移动互联网和视频业巨头们的新策略变化有直接的关系。

新策略有两个关键点:

1、 横向并购整合的差不多了之后,开始向产业链两端纵向延伸。

内容端:视频网站们已经不再满足于微电影、自制剧这样的“小打小闹”——开始向大型晚会和大荧幕延伸,这在2013年特别明显(乐视影业其实应该算另外一个范畴的问题,毕竟和大家熟悉的那个乐视不是同一个公司)。比如土豆做了青春的选择晚会,优酷陆续开始投资电影,包括刚开了发布会的老男孩电影版。爱奇艺则有马东工作室。

加大内容制作的力度,甚至登上大银幕和电视台,一方面固然是为了减轻视频网站抢剧的成本和改善弱势地位,另一方面,我看来也是找到另外一种盈利的可能性。毕竟视频网站过去的盈利模式基本就是广告,但大量积累的流量如果只能通过广告变现,那会非常低效和浪费——所以大家都谈大数据,其本质就是通过用户的数据调查反馈积累来形成自己在内容制作上的优势,当内容制作有了话语权和品牌影响力后,盈利的渠道当然就会增加,比如电影票房。

渠道端:内容向多屏延伸,给消费者提供无缝体验不用说都是爱奇艺们都在做而且必须做的事儿。这里除了内容输出外,以生产的方式控制“屏幕”也是大家正在做的事儿,当然策略不同,乐视是自己做,爱奇艺则是TCL联合发布电视,和创维、京东联合发布盒子。

2、 网台联合。

步入2013年,本来在2012年抱团抵制内容成本无序上涨(虽然都是他们自己搞出来的)的视频网站们分手了,本该是死对头的视频网站和电视台纷纷“混”到了一起。比如土豆联合深圳卫视制作晚会;再比如爱奇艺和河南卫视合作推出了《汉字英雄》这档原创类文化节目。

从视频网站的角度看,结交电视台最明显的价值有两个:首先是电视台在一些节目制作上确实有非常深厚的积累和优势,比如晚会节目制作。其次,电视台播出节目有品牌优势——至少目前为止,很多广告主还是更看重在电视台、电影院播出过的内容,而不是网络自制剧。爱奇艺对《爱情公寓4》网台联动的好处表述时就没有掩饰这一点——正如《白皮书》中说,《爱情公寓4》尽管定位在网络受众,但还是需要借助传统平台造势以提升品牌知名度和竞争力。

via:二十一世纪商业评论  作者:罗东

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

为什么视频网站都在谈大数据?

End.

 



转载请注明:36大数据 » 为什么视频网站都在谈大数据?

前百度副总裁王梦秋:各方之间数据最后能不能打通是商业行为决定的

前百度副总裁王梦秋:各方之间数据最后能不能打通是商业行为决定的

清流资本创立于2012年,投资人包括高瓴资本集团、去哪儿首席执行官庄辰超等,截至目前,清流资本投资的项目有:快乐学、Blued、住趣家居网、法斗士、51信用卡、豆果网、Mailtime、PP租车等。

前百度副总裁王梦秋:各方之间数据最后能不能打通是商业行为决定的

王梦秋,清流资本董事总经理(前百度副总裁,今年加盟清流资本)

1.互联网金融第一要解决信息对此,第二要靠大数据改变

我们特别会看好互联网金融的两个特点,第一个是说,它会降低交易的成本,获取信息和完成信息的成本,过去比如说不管是你想借贷,还是说你想消费的话,本身你在线下咨询的渠道是非常有限的,那么通过互联网这种非常本质的特征就是它这种平台化,然后信息的这种分化的话,这方面你要去寻找最适合你的金融产品,这个是一个比较大的一个价值点。

另外一个的话,实际上我们会比较看好,互联网金融领域的大数据这方面,实际上金融的实质无非是我们要对一个人的,首先征信是一个非常核心的业务,就是传统金融里面的话,不管是你卖保险还是说你贷款,包括投资理财,其实个人征信就是你个人的特征其实是很重要的。那么在传统的线下的话,非常有限,只能去CHECK你每个月收入多少钱,或者怎么样的一些非常基本的东西。但是有了互联网之后,非常多的大数据,比如说他在网上的消费交易记录,这些东西如果都能够被利用起来的话,包括跟线下交易都能打通的话,实际上会根本的改变过去的一些征信模型,从而也就会根本改变基于这些征信模式设计出来的金融产品,所以我们会非常看好这两个方向。

2.创业项目要能解决垂直市场明显的痛点或增值点

我们的投入风格其实是比较偏向常见的价值投资。相对来说,我们会认为说,如果这个项目在一个非常好的,就是会非常大的这样的一个垂直市场,而这个市场,这个项目要解决的是这个垂直市场的一个比较明显的痛点或者是增值点。那么我们会认为这样的项目非常值得去看。而这样的项目通常它也意味着有另外一个特点,就是他可能要去解决一些非常地面的问题,或者是非常基础的问题需要的时间比较长,所以我们会认为,我们的理念是希望做一个长期的投资

3.现在还不是谈互联网金融差异化的时候

我觉得现在其实没有必要讨论差异化的问题,因为市场太大了。而且所有这些公司在我看来,我认为大家都还比较早。所以没有必要一定是说,我还得以差异化来抢夺对方用户的这样一个状态,我认为现在本身市场是一个提速的过程中,用户的需求正在井喷,那么大家的产品模式、商业模式其实现在也都在非常的好,我觉得没有必要去说,比较你什么好,我什么好,大家各自沿着自己的思路,我觉得做下去大家就会有差异化,因为一定最后会做成细分的人群和市场。但是现在因为全部都还在努力,所以我觉得谈不上这个问题。

4.2014年互联网金融不会发生彻底变化

是不是能发生彻底的反映,我觉得也许今年还不太会,因为要发生这个彻底改变也就是说,需要有更多的用户,就是拥抱更多在线金融的一些产品,就是他们要用更多行为放在这个上面。而这个事情,我认为虽然各种各样的解决方案已经都像雨后春笋一样出来,但是用户的接受程度还是需要一个过程。就是他要去筛选,他要去甄选,他要去做细分什么的,然后他有更多的行为花在在线的完成这些事情上面。

5.第三方做数据还有两方面的机会

首先来讲,确实是说,现在的大平台他们都拥有了相当多的数据,但是整个人的媒体时间和他的消费行为,仍然有非常非常大的一个部分,甚至是对于很多人来说并没有发生在这些平台上。所以第三方的数据公司仍然是有机会的,然后同时这个所谓的数据行为,它也不一定只是线上的,还有线下的。其实我们会看到有一些公司在用各种各样的方式把线下消费行为收集起来,然后再想办法跟线上打通,这是一个更有价值的事情。这个事情做起来不容易,但是一旦做好,价值会非常的大。所以我们有看到一些这样的公司在做,不管用什么样的,对于硬件的方式,还是说怎么样跟别人合作的方式,跟商场合作的方式等,去想办法收集到线下的交易行为,有一些这样的公司,我们认为是不错的。做这样的事情的公司,我们也有做一些投资。

另外的话,就是有了这些大数据之后,你其实是需要一些比较好的数据挖掘的算法和一些计算的模型的。那做这样的一些项目,也发现业界有很多人在做,传统意义上这样的项目其实是提供给2B的,那么因为也这样的事情存在,其实我们也认为中国的2B的这种商业模式会比以前要有更好的前景

6.各方之间数据最后能不能打通是商业行为决定的

这是一个商业行为决定的,我觉得有人是不愿意打通,但是一定也有人,因为大家要去衡量一件事情是,我打通的好处大,还是不打通的好处大。比如刚刚你举的这个例子,商业银行跟这个第三方支付公司,比方说这两家数据他们要不要打通?我觉得完全看这两家的决策者,他们的思维是怎么想的,假如客观的讲就是,如果对于任何一方来讲,如果我们是可以交换数据的,那大家一定都是双方利益最大化,拼的东西是我们谁到底能够从同样的数据中赚到更多的钱,这个就拼到后面其他的算法、技术什么的。其实整个行业社会有很多东西都是公开的,并没有什么东西是只有你有,我不能有的。但是最后谁能够把这个东西拿到最大的商业利益,这还是要看很多其他因素来决定的。

7.垂直行业仍有机会诞生BAT一样市值的公司

如果是要做到跟他们(BAT)差不多量级的这样的,几百亿的公司,我认为还是有很多垂直行业实际上是存在这样的机会的。因为这些地方现在是严重的没有被发展起来,这是一方面,另外一方面的话,如果你说是想做成一种完全平台性质的,就是说什么行业什么东西都在上面,我个人认为说这个世界上零概率事情也是有可能发生的,但是这不是我们认为现在最好的机会所在,就是如果一个项目说它要做成未来的一个信息的入口,什么信息都有,像搜索的入口。就类似这样的平台,或者是淘宝什么品类都可以在里头卖的这样的平台的这种。我们会认为这个方面机会不大。

8.服务业的O2O成功从商业角度是非常困难

服务业我们认为相对来说可能会更困难的原因就是他一定要在线下,那就意味这你一定要对这个垂直行业的地面工作做的非常深刻、扎实。一旦你对某一个垂直行业做的非常深刻、扎实,包罗万象的这个从用户角度也好,还是从你商业角度也好,都是非常非常困难。从用户的角度来讲,他认为你是一个送外卖的,他就不会觉得你是一个订高档餐厅的地方。而你的团队如果非常擅长把送外卖这个资源给很好的组织起来,你也不太可能去跟高档餐厅怎么着。

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

前百度副总裁王梦秋:各方之间数据最后能不能打通是商业行为决定的

End.



转载请注明:36大数据 » 前百度副总裁王梦秋:各方之间数据最后能不能打通是商业行为决定的

趋势:市场营销进入大数据时代

趋势:市场营销进入大数据时代

大数据为营销人员确定营销策略,量化营销效果提供了有力的技术支持,同时也在高管层为首席营销官赢得了一席之地。但是,要想充分发挥大数据在营销领域的威力,营销人员必须主动适应这个变化。

这也大数据,那也大数据。大数据这个硅谷流行词已经无处不在——去年它甚至被收入《牛津英语词典》(the Oxford English Dictionary)——它似乎包罗万象,又似乎无比空洞。

大数据将改变各行各业!它将改变我们的工作方式和生活方式!它还将改变我们所了解的计算的未来!(想象一下企业高管们面临的困惑吧,他们都感受到了把大数据这个概念真正融入自身业务的竞争压力。)

对有些行业来说,大数据带来的好处仍模糊不清,但营销行业面临的情况稍微要清晰一些。营销人员利用关于目标受众的复杂数据集可能带来更有效的宣传和可衡量的竞争优势。可能正是因为如此,市场调研机构弗雷斯特研究公司(Forrester Research)最近的一份报告显示,超过三分之二的机构预计在未来一年将增加数据管理服务支出,41%的机构预计在未来一年将支出增加5%至10%。

弗雷斯特负责人谢里尔•帕特克说:“这与其说是大数据问题,不如说是正确数据问题。关键在于将数据转化为见解,然后据此推动业务发展。”

营销人员并不是定量研究方面的专家,总之不如数据科学家在行。然而,营销人员需要证明自己投资的每一美元都物有所值,同时确定数据驱动的品牌战略。数字营销涉及的渠道、平台以及受众群体都比以往任何时候要多。用于跟踪网络和社会趋势的分析工具在收集情报方面往往流于表面。有没有更好——更有组织、有条理——的方式来整合所有情报,以便更好地了解情况?

广告-科技公司Rocket Fuel是一家位于加州雷德伍德城的创业公司,致力于借助人工智能确定在线广告投放,帮助营销人员使数据自动化,以获得最理想的广告投放,并使用预测算法为今后的营销活动提供数据。

Rocket Fuel 首席营销官埃里克•波雷斯说:“我们认为,借助机器并行处理远比单靠人的猜测来做决策要靠谱得多。

Rocket Fuel成立已经有5年时间,客户包括东芝公司(Toshiba)。东芝希望Rocket Fuel帮助提升其Kira 超级本的销量。借助自己的平台,Rocket Fuel发现,商务旅行者和葡萄酒鉴赏家最有可能购买这款设备。通过针对上述人群发布定向广告,东芝的广告支出平均回报达到了8:1——换言之,每花出1美元的广告费,就获得8美元的收入。

“大数据不仅提供这些理解人类行为的诱人线索,” 波雷斯说。“它还能转变营销人员对沟通和战略议题如何与自身目标与目的相结合这个问题的看法。”

AirPR是另一家致力于帮助营销人员改善成果的科技公司。这家位于旧金山的新创公司最近推出了名为“分析”(Analyst)的平台,使用机器统计分析来测算公关和营销投资的回报。AirPR公司好比公关界的交友平台,它坚信自己能帮助营销人员理解公关活动的定量值,从而更快地排除无效的方案。

这个平台的核心是AirPR创始人沙拉姆•法拉德嘎-梅塞所说的“公关智慧”。它是一种竞争力分析,将纽约泛欧证券交易所(NYSE Euronext)这样的大企业以及网站开发公司Wix这样的小公司分别与自身竞争者作比较,对比品牌知名度等因素。

法拉德嘎•梅塞说:“光有数据还不够。那些能透过现象看本质、分辨出哪些数据对决策至关重要的公司将帮助提升整个生态系统。”

弗雷斯特的帕特克经常与首席营销官们一起制定战略。帕特克表示,数据驱动型营销的一个好处在于使整个组织机构——而不光是营销团队——了解如何使用数据来赢得客户、留住客户。

帕特克说:“数据帮助首席营销官们在高管桌赢得一席之地,真正使用非货币模型来参与业务探讨。但他们首先必须适应这一点。”

英语原文:

Big data this, big data that. The popular Silicon Valley buzzword has become so ubiquitous — the term was even added to the Oxford English Dictionary last year — that it seems to mean everything and nothing at the same time.

Big data will transform industries! Change the way we work and live! Alter the future of computing as we know it! (Imagine the confusion among executives who feel competitive pressure to actually incorporate the concept into their business.)

The benefits of big data are still nebulous for some, but the marketing industry faces a slightly clearer proposition. For marketers, harnessing complex data sets about a target audience could produce more effective campaigns and measurable competitive advantage. Which may be why more than two-thirds of organizations expect to ramp up spending on data management services in the next year, according to a recent report from Forrester Research, and 41% expect to increase spending between 5% and 10% in the next year.

“It’s not really a question of big data as much as it’s a question of the right data,” Forrester principal Sheryl Pattek says. “It’s about turning data into insights that you can act on to drive business.”

Marketers are not quantitative experts — not quite in the way that a data scientist is, anyway. Yet they are expected to justify every dollar they invest and make data-driven decisions on brand strategy. Digital marketing involves more channels, platforms, and audience segments than ever before. Analytics tools to track web and social trends only scratch the surface of the intelligence that can be gleaned. Is there a better — organized, structured — way to integrate it all for a better view?

Ad-tech companies like Rocket Fuel, a Redwood City, Calif.-based startup using artificial intelligence to determine advertisement placements online, are working to help marketers automate data for optimal ad delivery and use predictive algorithms to inform future campaigns.

“The idea is that this parallel processing with machines gives you far greater power than you could ever have by trying to guess your way into making a decision,” says Eric Porres, Rocket Fuel’s chief marketing officer.

Toshiba is one of the companies that enlisted the five-year-old company to help drive sales for its Kira Ultrabook laptop computer. Using its platform, Rocket Fuel discovered that business travelers and wine connoisseurs were most likely to purchase the device. By orienting its ad spend to this group, Toshiba achieved an average 8:1 return on ad spend — in other words, $8 in revenue for every $1 in ads spent.

“Not only does online offer these tantalizing clues into human behavior,” Porres says, “but it’s also a way to shift how marketers see their issues of communication and strategy married to their goal and objectives.”

AirPR is another tech company working with marketers to improve their results. The San Francisco-based startup recently rolled out Analyst, a platform that uses machine statistical analysis to measure return on investment of public relations and marketing spends. The firm, a type of Match.com marketplace for PR, is betting that it can help marketers understand the quantitative value of PR campaigns and more quickly eliminate programs that aren’t working.

Core to the platform is what AirPR founder Sharam Fouladgar-Mercer calls “PR intelligence,” a sort of competitive analysis that rates large companies like NYSE Euronext and small shops like the web development company Wix against their competitors for factors such as brand awareness.

“Data alone is not enough,” Fouladgar-Mercer says. “Companies that cut through the fat to showcase what data is important for decision making will help elevate the entire ecosystem.”

Forrester’s Pattek, who regularly works with CMOs on strategy, says that a benefit of data-driven marketing is in transitioning an entire organization — not just the marketing team — to understanding how to use data to win and retain customers.

“Data has allowed CMOs a seat at the executive table to really talk in business terms through these non-monetary models,” Pattek says. “But they have to be comfortable with it first.”

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

趋势:市场营销进入大数据时代

End.



转载请注明:36大数据 » 趋势:市场营销进入大数据时代

大数据时代,摩尔定律让位于贝索斯定律?

大数据时代,摩尔定律让位于贝索斯定律?

摘要:摩尔定律揭示了当价格不变时,集成电路上可容纳的晶体管数,约每隔18个月会增加一倍,性能也将提升一倍。而本文作者提出了贝索斯定律,以亚马逊CEO贝索斯名字命名,以此来预测单位计算能力的价格和时间的关系。

相对于构建昂贵的数据中心和私有云,将您的应用迁移到云上无疑能给你省下一大笔硬件费用和人力费用,而云计算的未来肯定是朝着以更低的成本获取更多的计算能力方向发展,现在以AWS和Google为主的云商们,纷纷调整战略来促使云的快速增长,带来的结果正如本文所述的那样:在云的发展过程中,单位计算能力的价格大约每隔3年会降低50%。而作者将其命名为贝索斯定律。下面看Gigaom的Greg O’Connor给我们带来的精彩解读。

以下为原文:

云计算未来发展的趋势必然是以更低的成本获取更多的计算能力。云供应商Google、Amazon Web Services(AWS)还有微软正在进行业务大清洗,为了定价上占有优势,它们将旧的产品和业务淘汰掉,并且引入新的产品和业务。这些最新的战略调整凸显出全新的、明确的商业模式,而这些模式将会促使云以指数增长方式发展,并且在定价上将带来重大改进——正如摩尔定律对电脑计算能力的预测。

贝索斯定律

如果你需要更深刻的理解这一点,可以参考一下摩尔定律——当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。鉴于此,我提出了我的版本:贝索斯定律。我以亚马逊首席执行官贝索斯的名字来给这一定律命名,并将它定义为:在云的发展过程中,单位计算能力的价格大约每隔3年会降低50%。

下面我会用一些数据做分析,通过数学计算来说明,假如贝索斯定理正确的反映了现实,那唯一的结论是大多数企业都应该抛弃他们的数据中心,并且将他们的应用移动到公有云,以节省资金。根据摩尔定律可知,随着时间的推移,企业会节约一笔可观的硬件费用,此外还会节约一大笔固定维修费用、电力费用、冷却费用以及数据中心构建、运营和维护的人力费用。在本文最后,我会演示如何做到每三年价格减少20%、费用减少一半。

用数据说明问题

Google首先宣布了按照定价需求进行业务调整。为了证明过去云定价策略已经不适用,Google的UrsHölzle在三月份向我们说明了云定价并不遵循Moore定律:过去的5年里,硬件成本平均每年下降率约20%到30%,但是公有云价格平均每年仅下降8%。

大数据时代,摩尔定律让位于贝索斯定律?

看完AWS的报告后,我又用数学方法做了一些计算得出:在过去八年中,公有云价格削减了43次。每年下降6%到8%的说法似乎不太靠谱(8年每年降价8%,通过计算可知,平均每次下降2%的话得降价43次)。

尽管如此,应用摩尔定律来得出云变化率,保持计算单元不变,得到的定价结果要比实际值还要低。因此,我们可以先假设贝索斯定律的结论是:随着云的发展,每Y年单位计算能力的价格会下降X%。

通过对AWS企业博客的挖掘,可以发现计算能力和时间周期(2008年5月29日)之间的关系,X表示计算能力的百分比,Y表示时间周期。2008年一直到2014年4月1日的数据集中显示了这6年类似云服务实例中,普通型云服务以16%的速率在降价,超大型云服务以20%的速率在降价。假设以时间线为基准,那云定价正如下表显示的那样:

大数据时代,摩尔定律让位于贝索斯定律?

对于AWS的公有云,当Y(时间周期)=3年时,X(计算能力半分比)=50%。这恰好证明了我的贝索斯定律猜想——在云的发展过程中,单位计算能力的价格大约每3年会降低50%。

云?数据中心?企业该如何选择

显然,云与建立和维护数据中心不一样,相比之下,对于大多数公司来说,云是更为经济的选择。

一个企业数据中心怎样才能跟上亚马逊、IBM、Google和微软等巨头们创新的步伐?企业的技术专家们知道答案,如果你问他们,他们会反问:“我们为什么要花那么高的代价构建所谓的数据中心或者私有云?”

谈到盈利,云供应商似乎不可能像零售企业那么成功——这样说也许为时过早,就像IBM将x86的服务器业务卖给联想那样。着眼于长远的利益,未来将产生长期基于核心云平台的创新,这或许会给未来云服务暗淡的盈利前景带来改变。

不同的意见先放在一边,毕竟数据不会说谎。企业总有一天会迁移到云平台,这一点毫无疑问,关键是什么时候迁?怎样迁?

英语原文:(翻译/毛梦琪 )

The future of cloud computing is the availability of more computing power at a much lower cost.

Cloud providers Google, AmazonWeb Services (AWS) and Microsoft are doing some spring-cleaning, and it’s out with the old, in with the new when it comes to pricing services. The latest cuts make it clear there’s a new business model driving cloud that is every bit as exponential in growth — with order of magnitude improvements to pricing — as Moore’s Law has been to computing.

If you need a refresher, Moore’s Law is “the observation that, over the history of computing hardware, the number of transistors on integrated circuits doubles approximately every two years.” I propose my own version, Bezos’s law. Named for Amazon CEO Jeff Bezos, I define it as the observation that, over the history of cloud, a unit of computing power price is reduced by 50 percent approximately every three years.

I’ll show the math below, but if Bezos’ law reflects reality, the only conclusion is that most enterprises should dump their data centers and move to the public cloud, thus saving money. Some savings occur over time by buying hardware subject to Moore’s Law, plus the fixed cost of maintenance, electrical power, cooling, building and labor to run a data center. In the end, I’ll show how prices are reduced by about 20 percent per year, cutting your bill in half every three years.

How we got here

Google was first to announce “deep” cuts in on-demand instance pricing across the board. To make the point that cloud pricing has been long overdue, Google’s Urs Hölzle showed in March just how much cloud pricing hasn’t followed Moore’s Law: Over the past five years, hardware costs decreased by 20 to 30 percent annually, but public cloud prices fell by just 8 percent annually:

Having watched AWS announce, by my count, 43 price cuts during the past eight years, the claim of merely a 6 to 8 percent drop for public cloud seems off. (That would be a 2 percent reduction 43 times to get an 8 percent trend line.)

Nevertheless, applying a Moore’s law approach to capture the rate of change for cloud, one would hold constant the compute unit, while the gains are expressed in terms of lower price. Thus, Bezos’s law is the observation that, over the history of cloud, a unit of computing power price is reduced by X percent approximately every Y years.

A bit of digging on Amazon’s Web Services blog shows how Amazon determined the percentage in computing power (X) and time period (Y) on May 29, 2008. The data from 2008 and the Amazon EC2 Spot Instances on April 1, 2014, shows that in six years, similar compute instance types have declined by 16 percent for medium instances and 20 percent for extra-large instances. Assuming a straight line, the pricing would have tracked as follows:

For the AWS public cloud, X = 50 percent when Y = 3 years, supporting my claim: Bezos’ law is the observation that, over the history of cloud, a unit of computing power price is reduced by 50 percent approximately every three years.

What’s next

Clearly, cloud, as opposed to building or maintaining a data center, is a much better economic delivery approach for most companies.

And how can an enterprise datacenter possibly keep up with the hyper-competitive innovation from Amazon, IBM, Google and Microsoft? Enterprising tech pros know how this is going to play out. They’re way ahead in asking: “Why should we continue to saddle our company with a huge cost anchor called a datacenter or private cloud?”

It looks as though being a cloud provider isn’t going to be like a retail business when it comes to profits, but it may be too early to tell. It’s a bit like the x86 server business IBM recently sold to Lenovo. There will likely be innovation above the core cloud platform for a long time, which might alter the profitability outlook.

Opinions aside, the math doesn’t lie. It’s not question of if we’re moving to the cloud but how — and when.

via:CNDS

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

大数据时代,摩尔定律让位于贝索斯定律?

End.



转载请注明:36大数据 » 大数据时代,摩尔定律让位于贝索斯定律?

思维可视化4类模型

人的思考过程,是一个奇妙的过程,思维在脑海里流窜,横冲直撞又反复纠缠,最后扭成一团麻。所以常常会有人抱怨,脑袋里很乱,想不出头绪。这是因为,大部分人的思考过程都是杂乱无序的,没有逻辑的,最后也没法形成有效的沉淀,更无法找到清晰的结论。那么本文要讲述的,就是怎样把思维进行可视化的规整,最终系统化的沉淀下来,找到其中有价值的方向。其实这种可视化的规则,不止可以用工作中,用在生活中也一样。

大部分人脑力最活跃的时候,往往是睡觉前、蹲厕所时,这时候你的脑袋里就像纪录片一样闪回各种生活片段,也会自我探讨很多人生问题,但是当别人问你,刚才你都想了些什么?你会发现你突然脑袋一片空白,我刚才在想什么?好像想了很多,却又都不记得了。除非在这漫无目的的脑力激荡中,你产生了让自己信服的idea,否则你很难记住自己都想了什么,所以大部分人这种碎片化的时间,都是毫无价值的浪费了。

逻辑好的人,往往善于归纳总结,把复杂包裹起来,把整理后的闪光点暴露出来,就像集线器,把各种线索都收纳到盒子里,把重要的插头暴露出来。

领导讲话,都喜欢讲3点。这并不是信手拈来那么简单,这需要提前做好充沛的准备。很多说3点的人,都是提前思考过的,有备而来的。当然也不排除有些人天赋秉异,可以在极端的时间内,快速的思考并总结,提练出有价值的3点来。这是很难的事情,我也极少这么做,但是为了体现我自己很有逻辑,有时候我会这么说,这件事情,可以总结成如下几点,第一点,第二点,第三点……能说几点说几点,但是随时可以见好就收。

我这里有一个面试的时候,我会问的比较有代表性的逻辑问题,请说出你的三个优点,每个优点说三个例子,每个例子不超过一句话。这要求应聘者在极短的时间内总结并提炼,是非常考验逻辑的。

思维可视化4类模型

设计中的思维可视化,是从无序到有序的思考过程。不是所有的人都是天生就有很好的逻辑的,但是好在,逻辑是可以训练的,只要你懂的把自己的思维进行可视化的展示、分析和整理。

思维可视化4类模型

漫思维模型是大部分人大部分时间的思维模型,从一个想法漫入进来,思绪进过各种游弋,然后再散漫的发散,如果有幸从中间找到一些价值点,那也只能说是幸运。不过像头脑风暴(Branstorming)这种依赖脑力激荡的思考方式,倒是也适用于这种漫思维模型,因为头脑风暴确实是需要从无限可能性中去寻找方向。所以这种思维模型也不是一无是处,只是适用的场景不同,也不需要可视化出来。

思维可视化4类模型

 

聚思维模型是少量善于逻辑分析的人的思维模型,他们善于先自我发散,再筛选可能,然后聚合成靠谱方向,再具体细化。思维是一个漏斗,最后沉淀下来的想法,是经层层筛选的。而能控制自己从发散中提炼的人,是善于控制思维的人,这种人完全可以不依赖思维可视化,就想清楚很多事情。

但是事实是大部分是无法做到发散后合理提炼和归纳的,所以这种情况下,还是依赖于方法来进行思维可视化,可视化之后,就方便归纳、整理、提炼、细化了。

下面是思维可视化的4类模型——1.放射状规整(思维导图、鱼骨图) 2.层次化规则(架构图、组织结构图) 3.线性化规整(路径图、时间线) 4.矩阵式规则(SWOT分析、商业模式画布)

1. 放射状规整

让思维从一个点出发,形成放射状的发散。这种规则方式,主要是用来整理多种可能性,便于发散思维,并可以对每种可能性进行深入挖掘。

思维可视化4类模型

 

思维导图(MindMap)是一种将放射性思考具体化的方法,是最简单又最有效的思维整理方式,也是世界范围内应用最广的思维工具。我们知道放射性思考是人类大脑的自然思考方式,每一种进入大脑的资料,不论是感觉、记忆或是想法——包括文字、数字、符码、香气、食物、线条、颜色、意象、节奏、音符等,都可以成为一个思考中心,并由此中心向外发散出成千上万的关节点,每一个关节点代表与中心主题的一个连结,而每一个连结又可以成为另一个中心主题,再向外发散出成千上万的关节点,呈现出放射性立体结构。

 

思维可视化4类模型

鱼骨图(Cause and Effect Diagrams),又名因果图,是一种发现问题“根本原因”的分析方法。是由日本管理大师石川馨先生所发明出来的,故又名石川图。其特点是简捷实用,深入直观。它看上去有些象鱼骨,问题或缺陷(即后果)标在”鱼头”外。在鱼骨上长出鱼刺,上面按出现机会多寡列出产生生产问题的可能原因,有助于说明各个原因之间如何相互影响。

2. 层次化规整

层次化规则,是用来挖掘结构关系,并层层深入审视事物的状况。

思维可视化4类模型

 

架构图(Org Charts)是一个思维可视化工具,它通过树状图的方式对一个事物的结构进行逐层分解,一般是从父级向子集深挖。虽然拓扑的方式与思维导图类似,但是架构图不是为了发散思维而存在的,而是为了探讨组织结构关系而存在的,所以层级的重要性不容小视,一般都是自上而下去严谨的拓扑,不做无价值的拓展。

思维可视化4类模型

 

这种层次结构图是用来展示清晰的分组信息,表达清晰的组织结构关系的。

3.线性化规整

线性化的规则方式,一般都有一条清晰的主线,这条主线可以串起整个思考过程。比如是时间为轴,比如设定好起点和终点后中间所能发生的所有的事情,比如围绕某个用户目标而产生的任务流等。

思维可视化4类模型

 

路径图(Roadmap)是一种任务走查方法,设定好用户目标,起点和终点,排查中间会发声的所有的事情,为每个重要的关键结点进行设计。这种思维可视化方式一般用在目标导向的事情中,确定达成目标的多种可能路径,并选择其中最短路径。

思维可视化4类模型

 

时间线(Timelines)是用来描述在一个时间段里面,发生的所有里程碑性质的事情的,也可以用来基于时间线制定项目计划。过去放在时间线横轴左边,未来放在时间线右边,所有基于时间结点发声的事情和计划发生的事情要进行特别标注。这种方式很用来做里程碑图或者项目计划。

4. 矩阵式规整

另外一种结构化的思考方式就是矩阵式规则,先想清楚需要思考的事情的几大纬度,然后把纬度沉淀成矩阵,再往矩阵里去补充具体内容,这种方式很使用用来做突显内容的探讨。

思维可视化4类模型

 

SWOT分析是一种常用的战略分析工具,SWOT分析代表分析企业优势(strength)、劣势(weakness)、机会(opportunity)和威胁(threats)。因此,SWOT分析实际上是将对企业内外部条件各方面内容进行综合和概括,进而分析组织的优劣势、面临的机会和威胁的一种方法。 可以通过分析帮助企业把资源和行动Focus在自己的强项和有最多机会的地方。

思维可视化4类模型

 

商业模式画布包含9个构成模块,重要伙伴、关键业务、核心资源、价值主张、客户关系、渠道通路、客户细分、成本构成、收入来源。按照这9模块来思考内容,就可以很方便的绘制出你的项目的商业模式,帮助投资人理解你的项目全景。商业模式计划书也适合用在个人身上,只是9各构成模块做了一些调整而已,我也在百度MUX内部带领小伙伴们一起做个个人商业模式的设定,帮助小伙伴们找到自己的优势和劣势,学习型项目和主导型项目。

 

最后想说,最高级的思维方式是,所有的发散、总结、沉淀都在脑海内部形成,但是大部分都达不到这种牛逼的程度,所以我们不得不利用可视化的方式,训练自己的思维方式。另外即使你思考方式很牛,如果你不能可视化的给他人呈现出来,也很难保证普通人能很好的理解你。所以不管是思维牛人还是思维普通人,都需要知道怎么把自己的思维可视化出来。

再总结一下思维可视化的4类模型——1.放射状规整(思维导图、鱼骨图) 2.层次化规则(架构图、组织结构图) 3.线性化规整(路径图、时间线) 4.矩阵式规则(SWOT分析、商业模式画布)。其实模型还有千千万,具体情况具体采用不同模型,或者发明创造新的思维模型,全靠悟性了。

作者:elya妞,百度云UE负责人 

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

思维可视化4类模型

End.



转载请注明:36大数据 » 思维可视化4类模型

大数据时代,企业竞争主要集中在处理数据的速度、敏捷性和创造性上

大数据时代,企业竞争主要集中在处理数据的速度、敏捷性和创造性上

Raymie Stata是领导海量大数据处理分析引擎的关键人物。IBM和Hadoop将更多的精力专注在海量数据上,海量数据正在潜移默化的改变企业和IT部门。

越来越多的大企业的数据集以及创建需要的一切技术,包括存储、网络、分析、归档和检索等,这些被认为是海量数据。这些大量信息直接推动了存储、服务器以及安全的发展。同时也是给IT部门带来了一系列必须解决的问题。

信息技术研究和分析的公司Gartner认为海量数据处理应该是将大量的不同种类以及结构化和非结构化的数据通过网络汇集到处理器和存储设备之中,并伴随着将这些数据转换为企业的商业报告。

海量数据处理的三个主要因素:大容量数据、多格式数据和速度大容量数据(TB级、PB级甚至EB级):人们和机器制造的越来越多的业务数据对IT系统带来了更大的挑战,数据的存储和安全以及在未来访问和使用这些数据已成为难点。

多格式数据:海量数据包括了越来越多不同格式的数据,这些不同格式的数据也需要不同的处理方法。从简单的电子邮件、数据日志和信用卡记录,再到仪器收集到的科学研究数据、医疗数据、财务数据以及丰富的媒体数据(包括照片、音乐、视频等)。

速度:速度是指数据从端点移动到处理器和存储的速度。

Kusnetzky集团的分析师Dan Kusnetzky在其博客表示“简单的说,大数据是指允许组织创建、操作和管理的庞大的数据集和存储设施工具”。这是否意味着将来将会出现比TB和PB更大的数据集吗?供应商给出的回应是“会出现”。

他们也许会说“你需要我们的产品来管理和组织利用大规模的数据,只是想想繁杂大量的维护动态数据集带来的麻烦就使人们头疼”。此外海量数据的另外一个价值是它可以帮助企业在适当的时机作出正确决策。

大数据处理,数据,大数据从历史上看,数据分析软件面对当今的海量数据已显得力不从心,这种局面正在悄然转变。新的海量数据分析引擎已经出现。如Apache的Hadoop、LexisNexis的HPCC系统和1010data(托管、海量数据分析的平台供应商)的以云计算[注]为基础的分析服务。

101data的高级副总裁Tim Negris表示海量数据的收集以及存放和利用海量数据实际上完全是两回事。在做任何事前需要大量(准备数据)的工作是像Oracle和大多数数据库厂商所面临的难题之一。我们正是要消除这个难题,并把数据直接交到分析师的手中。Hadoop和HPCC系统做到了这一点。这三个平台都着眼于海量数据并提供支持。

开源的Hadoop已经在过去5年之中证明了自己是市场中最成功的数据处理平台。目前Cloudera的首席执行官和Apache基金会的Doug Cutting是Hadoop的创始人,他曾在Yahoo工作过。

Hadoop将海量数据分解成较小的更易访问的批量数据并分发到多台服务器来分析(敏捷是一个重要的属性,就像你更容易消化被切成小块的食物)Hadoop再处理查询。

“Gartner和IDC的分析师认为海量数据的处理速度和处理各种数据的能力都是Hadoop吸引人们的地方”。Cloudera的产品副总裁Charles Zedlewski说到。

在Cutting和他的Yahoo团队提出Hadoop项目之后,在Yahoo IT系统测试并广泛使用了很多年。随后他们将Hadoop发布到开源社区,这使得Hadoop逐渐产品化。

在Cutting和Yahoo在开发、测试并内部运行代码时,他们了解到使用起来还是很复杂的。这导致他们马上意识到如果在未来提供周边服务(例如提供直观的用户界面、定制部署和附加功能软件)可赚取更多的资金。

在2009年Cloudera作为一家独立公司开始运营,公司产品采用开源并产品化Hadoop分析引擎和Cloudera企业版(Cloudera Enterprise整合了更多的工具,包括Hive、HBase、Sqoop、Oozie、Flume、Avro、Zookeeper、Pig和Cloudera Desktop)。

Cloudera得到了大量投资者的青睐,这其中包括VMware的创始人和前首席执行官Diane Greene、Flickr的联合创始人Caterina Fake、MySQL前首席执行官Marten Mickos、Linkedln总裁Jeff Weiner和Facebook CFO Gideon Yu。

自从Cloudera成立以来,只有少数的顶级公司和初创公司免费提供他们基于Hadoop开放源代码架构制作的自己的版本。

这是一场真正的企业科技的竞争。就像在一场接力赛中,所有选手都必须使用同一种类型的接力棒(Hadoop的代码)。企业竞争主要集中在处理数据的速度、敏捷性和创造性上。这场竞争是迫使大多数企业在海量数据分析市场有所作为最有效的方法。

IBM提供了基于Hadoop的InfoSphere BigInsights(IBM InfoSphere BigInsights 是用于分析和虚拟化海量数据的软件和服务,这款新产品由 Apache Hadoop 提供技术支持。)基本版和企业版。但公司有更大的计划。

IBM CEO Sam Palmisano表示IBM正在将新一代数据分析作为公司的研发重点,IBM在此项目上投资了1亿美元。IBM院士和计算机科学研究室主任Laura Haas表示IBM实验室的研究远远超出了海量数据的范围,并已经着手“Exadata”分析研究。Watson就是IBM在数据海量数据研究的成果,Watson将用于更多用途,包括卫生保健、科学研究等。

其他Hadoop版本MapR发布了一个分布式文件系统和MapReduce引擎,MapR还与存储和安全的领导厂商EMC合作向客户提供了Greenplum HD企业版Hadoop存储组件 。EMC Hadoop的另一个独特之处在于它没有采用官方版本的Apache代码,而是采用Facebook的Hadoop代码,后者在可扩展性和多站点部署上进行了优化。

另一家厂商 Platform Computing,Platform提供了与Apache Hadoop MapReduce编程模型完全兼容的分布式分析平台,并支持多种分布式文件系统。

SGI(Silicon Graphics International )提供基于SGI Rackable和CloudRack服务器产品实施服务的Hadoop优化解决方案。

戴尔也开始出售预装该开源数据处理平台的服务器。 该产品成本随支持选项不同而异,基础配置价格在11.8万美元至12.4万美元之间,包含为期一年的Cloudera支持和更新,6个PowerEdge C2100服务器(2个管理节点,1个边缘节点和3个从站节点,以及6个戴尔PowerConnect 6248交换机)。

替代品浮出水面。包括1010data的云服务、LexusNexis公司的Risk,该系统在10年间帮助LexusNexis公司分析大量的客户数据,并在金融业和其他重要的行业中应用。LexusNexis最近还宣布要在开源社区分享其核心技术以替代Hadoop。LexisNexis公司发布一款开源的数据处理方案,该技术被称为HPCC系统。

HPCC可以管理、排序并可在几秒钟内分上亿条记录。HPCC提供两种数据处理和服务的方式——Thor Data Refinery Cluster和Roxy Rapid Data Delivery Cluster。Escalante表示如此命名是因为其能像Thor(北欧神话中司雷、战争及农业的神)一样解决困难的问题,Thor主要用来分析和索引大量的Hadoop数据。而Roxy则更像一个传统的关系型数据库或数据仓库,甚至还可以处理Web前端的服务。

LexisNexis CEO James Peck表示,认为在当下这样的举动是对的,同时相信HPCC系统会将海量数据处理提升到更高高度。

在2011年6月Yahoo和硅谷风险投资公司Benchmark Capital周二联合宣布,他们将联合成立一家名为Hortonworks的新公司,接管被广泛应用的数据分析软件Hadoop的开发工作。

据一些前Yahoo员工透露,从商业角度来看Hortonworks将保持独立运营,并发展其自身的商业版。

在转型时期,Yahoo CTO Raymie Stata成为关键人物,他将负责公司所有IT项目的发展。Stata表示相对于Yahoo,在Hortonworks我们会投入更多的精力在 Hadoop的工作和相关技术上,我们认为应加大对Hadoop的投资。我们会将一些关键人员指派到Hortonworks公司,但这既不是裁员也不是分拆。这是在加大对Hadoop的投入。Yahoo将继续为Hadoop的发展做出更大的贡献。

Stata解释说,Yahoo一直有一个梦想,就是将Hadoop变为大数据分析软件的行业标准。但是这必须将Hadoop商业化。Stata表示创建Hortonworks的主要原因是因为Yahoo已经看到了未来企业分析(感谢Hadoop 6年以来的发展)的未来,并知道该怎样去做。我们看到海量数据分析将很快成为企业非常普遍的需求。

我们将Hadoop部署在企业之中,我不认为所有人都否定这样的解决方案。我们要通过Hadoop为我们的股东创造价值。如果某一天Hadoop成为海量数据处理的行业标准,这将是对我们最好的奖赏。

via:网界网

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

大数据时代,企业竞争主要集中在处理数据的速度、敏捷性和创造性上

End.



转载请注明:36大数据 » 大数据时代,企业竞争主要集中在处理数据的速度、敏捷性和创造性上

周鸿祎:大数据时代的用户信息安全

周鸿祎:大数据时代的用户信息安全

浓缩观点

大数据时代的来临会让互联网走到一个奇点,在未来两三年里,随着各种移动智能设备接入,安全问题也会变得越来越严重。
用户信息安全的三原则:1. 用户的信息是用户的个人资产;2. 用户的信息和厂商之间,应该遵循平等交换的原则;3. 任何互联网公司一定要对存在服务器上的用户数据进行相应的加密,进行安全存储和安全传输。
什么是奇点?奇点是宇宙大爆炸时候的那个点,美国未来学家雷·库兹韦尔定义了“奇点”理论,他认为人类文明经过这么多年发展,在本世纪的中叶会经过奇点,奇点是一个拐点。

 

奇点是由量变到质变过程中出现的巨大的拐点,它有双重含义,奇点有可能变得更好,也有可能变得更糟糕。人类文明可能会在奇点之后进入一个新的文明高度,也可能会急转直下,人类就此灭亡。

在雷·库兹韦尔2005年所著的《奇点迫近》一书中,我印象最深的是纳米机器人的出现。纳米机器人足够小,它们可以自我复制,比3D打印更加先进。纳米机器人可以造很多,进入人体,跟人体结合在一起,我们每个人都变成半人半机器。

但书中也提到,一旦真的有这种技术,如果这些纳米机器人都不听话了怎么办?就像你制造了一种病菌,这种病菌很难控制怎么办?所以,还需要制造一种反纳米机器人的纳米机器人。那本书中讲到了许多类似有意思的概念。

互联网的奇点:云计算和大数据时代来临

最近有一件事会让互联网走到一个奇点,就是真正的大数据时代的来临。有两个因素促成奇点可能发生:

第一,云计算。现在所有的数据和信息都会存在云端,储存在各个厂商的服务器上。第二,移动互联网,它展现出比PC互联网更实时、更广阔的数据采集能力。在现在物联网、车联网,可穿戴设备等各种智能硬件推出之后,数据对于个人了解的深入程度是PC互联网时代完全不能比的。

例如有人计划开发“智能冰箱”。冰箱的硬件免费,或者按成本价出售,但冰箱里可以安装很多摄像头,这样以来,中国10亿人民买多少鸡蛋,青菜多久过期,全部都可以显示在数据里。随着各种可穿戴智能硬件的推出,每个人都在变得无比透明,厂商掌握了大量的数据。

在这样一个大数据时代里,当我们谈及互联网的时候,不再谈论有多少用户。例如中国有10亿用户,但在几年之后,中国连接互联网的设备远远不是10亿台,可能是50亿,或者100亿台。

现在有许多创业公司,正在做连接Wifi的灯泡,连接Wifi的插座,甚至是智能眼镜、智能电视、智能冰箱,还有每个人持有的手机、iPad,电脑,笔记本等,在量变转化成质变的时候,互联网就将迎来了奇点,那个时候我们将何去何从。

奇点时代最重要的是安全问题

我认为在互联网的奇点时代,最需要考虑的是安全的问题。如果没有安全保证,用户的数据和信息很容易受到攻击。

例如Tesla汽车里最牛的技术是电池管理,用几千块东芝笔记本电池,用一个软件来管理。然而用软件管理就有可能被攻破,电池可能会在瞬间短路,可能瞬间变成最大的危险。现在很多人在对汽车做远程云数据交换,如果一旦开放了云端控制的接口,就将会是非常危险的。可能你正在开车,车就被其他人远程控制了,这就将是一个生命安全的问题。

最近出现了许多安全事件。例如SSL心脏流血漏洞,还有某公司存储了用户信用卡里不该存储的信息。越来越多的安全问题已经不是在设备上杀病毒、清理流氓软件就能解决的,现在对于许多互联网公司来说,用户的安全已经与公司的安全紧密结合在一起。

如果不能解决安全问题,那么会产生两个结果:一,用户不信任。例如运动手环、所有个人的心跳、血糖都被记录下来,可能许多人不会再使用;二,也会有消费者无知无觉,只顾着使用这些先进的设备,但完全没有意识到自己把安全开放给了这些厂商,一旦出现安全事件,就将是巨大的问题。

在互联网这几年的迅速发展中,安全问题不但没有减少,反而越来越严重,这是云计算和大数据发展到今天必然的代价,在未来两三年里,会有各种移动智能设备接入,安全问题也会变得越来越严重。

因此作为创业者更需要考虑的是,在做产品之前,在用所谓大数据产生效益之前,我们如何能够在公司的云端制定一个保护用户信息和数据的原则。

用户信息安全的三原则

美国科幻作家艾萨克·阿西莫夫写过许多科幻小说,都在谈机器人,其实机器人直到今天都没有真正出现。如果机器人出现了,我相信那也是一个人类的拐点,因为不知道是好还是坏。阿西莫夫曾经提出了著名的机器人三大定律,而我也想提出用户信息安全的三定律。

一,用户的信息是用户的个人资产。许多巨头公司可能会对第一点不满,因为有很多巨头认为用户是我的,他们的信息自然也是我的。但我认为用户的信息是用户的个人资产。

国外网站出现了一个著名的词“携号转网”。这是一种趋势,过去运营商认为这个号是我给你的,如果要换运营商,这个号是带不走的。但我认为,用户使用各种各样的设备所产生的数据只是分享给了厂商,但是从所有权上,我认为它应该是用户的财产,是属于用户的。

二,在现在云时代和大数据时代,如果说厂商完全拿不到用户的数据和信息,这是不可能的。例如,用户使用微信的时候,为了匹配朋友通讯录自然是要上传的,为了使用聊天的功能,用户与朋友所有聊天的记录自然会保存在对方的服务器上。

用户的信息和厂商之间,应该遵循平等交换的原则。也就是厂商给用户提供相应的服务,厂商也会拿到用户个人的一些信息,用户一定要有知情权和选择权,可以授权使用,也可以拒绝厂商提供的服务,如果用户对个人数据特别在意,就一定不能有超出用户许可的滥用数据的情况。

例如,像“大众点评”这样的应用,它需要根据用户的地点寻找饭馆,很自然拿到了用户的位置,我认为这是合理的。所以称为平等交换。但如果就只是一个读小说的软件,但也在后台频繁的读取用户信息,我认为这个服务就没有遵循平等交换的原则。

三,过去人们总觉得安全就是安全公司的事情,我认为这是一个错误的理念。作为任何一家互联网公司,包括现在做可穿戴硬件的公司,都会变成一个服务公司,都会拥有用户的大数据。因此,公司一定要对存在服务器上的用户数据进行相应的加密,进行安全存储和安全传输。

此前,中国所有的互联网公司都犯过类似的错误,只想着拿数据,但是很多数据都存在服务器上,一旦服务器有问题,所有的信息都会泄露。因此作为一个互联网服务者,通过给用户提供服务,拿到了用户的数据,必须要妥善的保管,如果黑客将某家互联网公司的服务器攻破了,无数人的数据遭到泄露,这会带来灾难性的结果。

希望互联网公司能共同抛弃门户之见,将这三个原则建立起来,只有让用户确保信息的安全,用户才会更大胆地去尝试各种新的服务。如果支付不安全、红包有危险,最後的结果就是很多人不使用了。如此以来,互联网想繁荣也是不可能的。而这个问题不是一家公司的问题,也不是几家安全公司的问题,而需要从巨头到各位创业公司的共同推动。

在今天,智能硬件,车联网、物联网时代刚刚开始,设备还很少。但是按照摩尔定律,在未来两三年里,这些设备可能远远超过手机、PC、平板电脑的数量,每天上传的数据可能是它们的数百倍。

在这样一个大数据时代,用户真变得透明已经是没有办法的选择,但在这样一个时代,如何让这个奇点变成一个向上的奇点,我们这个行业里的人有责任给用户建立一个安全的基础。

刘媚琪根据2014 奇点极客公园创新者峰会 360公司董事长周鸿袆演讲整理,via:商业价值

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

周鸿祎:大数据时代的用户信息安全

End.



转载请注明:36大数据 » 周鸿祎:大数据时代的用户信息安全

大数据技术初期,我们应该跟上技术变革的节拍,专注解决商业问题

大数据技术初期,我们应该跟上技术变革的节拍,专注解决商业问题

想像一下以下情景:在会议室里,CEO正和她的高管团队成员开例会。CEO分享着她近期在一次全球经济论坛上听到的关于技术将影响或威胁商业经营活动的一些热门观点。她转向她的团队,眼神尤为深意地落在营销总监和技术总监身上,问道:“针对这些技术变化,我们的策略是什么?我们准备好了吗?”然后在紧接着的几周或几个月的时间里,新任务布置下来了,新的成员被招聘进来,企业努力去消化技术进步在实际经营活动中的应用,并且学习充分使用它。

1993年,我们谈论互联网。到1997年,数字营销在美国迅速扩张成5亿美元的市场。15年之后,这一市场规模超过100亿。

另一个例子是,在20世纪80年代,商品交易数据初被应用,营销人员凭此能在一定程度上推算产品的销售量、消费者为产品支付的价格以及市场份额。而今天,我们对于这些数据习以为常。回想一下在广告狂人的时代,由Rober K. Merton和Daniel Yankelovich这类行业领袖所引领的聚焦于消费者群体和消费者细分市场的营销变革,我们或许能发现此类事物的本质。

我的观点是大数据改变的仅仅是商业规律,是由一系列技术变革所带来的面向消费者行为的创新营销。我们对大数据的反应应该就像过去我们对技术变革的反应一样。而对我来说,无非两点,即跟上技术变革的节拍、专注于解决核心的商业问题。

跟上技术变革的节拍

这是说大数据不仅仅关于更多的信息和更好的分析方法,而在于它是数据驱动决策的新的行为范式。人们的决策通过对可获得的全局数据的挖掘分析而得出。我相信大数据的出现已经引起了各个领域对一手数据、实验数据、数字化数据、交易数据和非结构化数据的重视。这对大数据的发展是极具意义的。无论数据量的大小,通过收集、整理、处理、解释数据,并做出决策将成为一项企业的核心能力。而数据的采集、处理、分析工作必须牢牢以商业决策制定为中心,不能假借他人之手。各行各业应该跟上大数据变革的节拍,一旦错过,将在商业竞争被淘汰。

为了跟上技术的节拍,企业应该怎么做呢?大型企业如沃尔玛已经收购了数据分析企业来获得大量库存数据分析的能力。当然,也有其他循序渐进的方法。大型银行通过创新整合内外部数据资源和先进的分析方法能够显著地降低信用卡欺诈。手机制造商通过众包平台允许用户参与讨论产品,平台能够根据文本分析归纳出产品的改进设想。保险公司举办了一系列跨职能部门的头脑风暴会议,来识别大数据能够应用于解决哪些经营活动的问题等等。

专注于解决核心的商业问题

一旦一个企业敞开怀抱,拥抱数据驱动决策制定的行为范式,它将从聚焦最重要的事务中获得最大化的投资回报。大数据通过优化日常营销活动,为企业提供了很多新的改良机会,如精准数字广告、提升电子商务网站的转化率。但这些都仅仅是冰山一角。企业需要面对的关键的问题没有改变,即理解消费者的需求,提升和改善用户价值、建立能够获得消费者认知的强大品牌、与渠道合作伙伴创建双赢的互利互惠关系。在诸如此类的环境中,明智地使用数据将为企业经营者打开新的局面。想想Nike FuelBand的创新,它建立起用户收集并分享生理活动数据的全新体验。美国运通融资使用先进分析技术为有资质的制造商方便快捷地提供生产经营所需的资金。这些游戏规则的颠覆者正是通过为企业和消费者创造新的价值而实现这一切的。识别这些新的价值并建立它们应该是数据驱动决策所要关注的最基本的事情。

英语原文:

Imagine for a moment the following scenario: You and your fellow members of the senior leadership team are gathering in the conference room for a regular meeting with the CEO. She starts talking about a recent global economic forum where there was a lot of buzz about a technology that promises—or threatens—to turn the business world upside down. She turns to the group, with particular glances toward the chief marketing and chief technology officers, and asks, “What’s our strategy for dealing with this? Are we ready?” During the next few weeks and months, task forces form, new people are hired, and the organization strains to digest the implications of this technology revolution and make the most of it.

The year: 1993. Because for the moment, I’m not talking about “big data”; I’m talking about the Internet. In 1997, digital advertising in the United States cracked the US$500 million mark. A decade and a half later, it was more than $10 billion.

Here’s another example: When point-of-sale transaction data first became available in the late 1980s, marketers could finally know with some certainty their market shares, the prices consumers were paying, and what percent of sales were on deal—all things we take for granted today. And going back to the Mad Men era, think of the revolution in marketing triggered by pioneers like Robert K. Merton and Daniel Yankelovich when they invented, respectively, focus groups and consumer segmentation.

My point is that big data is just the latest in a series of technology revolutions that have changed the nature of business, in particular customer-facing activities such as innovation and marketing. Our reaction to it should be informed by all we’ve learned from past revolutions, which for me boils down to two main points: Don’t miss the boat, and stay focused on solving core business issues.

The reason I emphasize not missing the boat is that big data isn’t just a matter of more information and better analytics, but a true paradigm shift toward more data-driven decision making. This means extracting insight from the full range of available data. My belief is that the emergence of big data as a major topic is causing increased attention to all kinds of data—including old-fashioned, created data and experiments; digital data; transaction data; and unstructured data. And that’s a good thing. The ability to collect, harmonize, process, interpret, and act on all your data, big and small, will become a core enterprise capability. But it has to live at the center of business decision making—it won’t (and can’t) be relegated to the periphery, performed by insights specialists and third-party vendors. Missing the boat means delaying this inevitable journey.

What can companies do to get on board? The largest and most sophisticated companies, such as Walmart, have actually acquired analytics companies to bring a scalable capability in-house. But there are other, more gradual ways to get started. One large bank used a creative combination of internal and external data sources and advanced analytics to dramatically decrease credit card fraud. A telephone handset manufacturer created a crowdsourcing platform to allow customers to discuss its products, and the platform automatically generated product improvement ideas based on text analysis. An insurance company held a series of daylong cross-functional brainstorming sessions that including marketing, strategy, and IT to identify high-value problems where practical big data solutions could be piloted.

Once a company has embraced data-driven decision making as a new paradigm, it will get the maximum return on its investment by focusing on the most important issues. Big data has gained traction in large part for the many new opportunities it offers to optimize routine marketing activities such as targeting digital ads and improving conversion on e-commerce sites. But these should not be the only, or even the primary, uses of your data. The core issues businesses face haven’t changed: understanding consumer/customer needs, developing and refining value propositions, building strong brands that consumers care about, and creating win-win relationships with channel partners. In these and many other areas, data, wisely used, can open up new markets. Think about innovations such as Nike FuelBand, which creates new consumer experiences by collecting and sharing data about physical activities. Or American Express Merchant Financing, which uses advanced analytics to provide qualified merchants with quick and simple access to cash for their business needs. Game changers like these create value for customers and companies alike. Identifying and building them should be the primary focus of data-driven capabilities.

原作者是大卫·米尔,原文标题为:Big Data: Lessons from Earlier Revolutions,译者:王钰,via:大数据观察

扫描微信下面二维码,随时了解大数据最新动向,添加36大数据官方微信公共帐号dashuju36:

大数据技术初期,我们应该跟上技术变革的节拍,专注解决商业问题

End.



转载请注明:36大数据 » 大数据技术初期,我们应该跟上技术变革的节拍,专注解决商业问题