大数据的九点思考-刘德寰
大数据思考之一
任何一个网站的数据都是人们互联网行为数据的很小的一个子集,无论这个子集多么全面,分析多么深入,都是子集,不是全集。对于企业来讲,竞争对手的数据价值远远超过自己网站数据的价值,从量级上,对于所有公司都一样,自己拥有的数据远远小于全集数据。看起来的全数据恰恰是残缺数据。
大数据思考之二
数据量的大幅增加会造成结果的不准确,来源不同的信息混杂会加大数据的混乱程度。研究发现:巨量数据集和细颗粒度的测量会导致出现“错误发现”的风险增加。那种认为“假设、检验、验证的科学方法已经过时”的论调,正是大数据时代的混乱与迷茫,人们索性拥抱凯文凯利所称的混乱。
大数据思考之三
互联网用户的基本特征、消费行为、上网行为、渠道偏好、行为喜好、生活轨迹与位置等,反映用户的基本行为规律。体系完整是所有分析性工作的第一步,完整的框架甚至胜过高深的模型。人类的认识最大的危险是不顾后果的运用局部知识。如果只关心自己网站数据,其分析基础必然是断裂数据。
大数据思考之四
现在谈到大数据,基本有四个混乱观念:第一,大数据是全数据,忽视甚至蔑视抽样;第二,连续数据就是大数据;第三,数据量级大是大数据;第四,数据量大好于量小。对应的是:抽样数据只要抽样合理,结论准确;连续只是一个数据结构;大量级的噪音会得出错误结论;大小与价值关系不大。
大数据思考之五
大数据不是新事物,天气、地震、量子物理、基因、医学等都是,借鉴他们的方法有益。他们用抽样调查。互联网数据挖掘方法论也如此,不同的是更难,因为人的复杂性。既然是关于人的研究就需应用所有研究人的方法梳理大数据。只要懂编程、懂调动数据的人就可以做大数据挖掘的说法是谬误。
大数据思考之六
大数据分析中分析构架为第一要著,算法也极为关键,在最近的大数据处理中发现:解析网址后的分类是是一个难点,主要有几个方面,一个千万人的网络行为数据一天产生的域名大约50000个,虽然有一些算法,但是混淆、难以辨认、连续更新与判别是分析中的重要步骤,简单分易,精细分难。
大数据思考之七
算法中,只要包含文本,就必然有两个关键基础技术:关键词(字典)与语义分析,关键词技术成熟,语义技术是瓶颈,中文语义太难,能解决50%的团队就不错了,尤其是社交语言,比如"真可以!"何解?需上下文。希望风投们多鼓励此类基础技术研发,突破此瓶颈是大数据挖掘的关键点之一。
大数据思考之八
社交数据挖掘中,很多团队集中在运用推特瀑布思路,就是可视化技术,其构图精美值得称道,问题是,其理论还是沿用三十多年前的社会计量法,概念还是局限在点、桥、意见领袖等小群体分析,不适合巨网,突破可视化框架的社交分析需要理论探索和实践努力。
大数据思考之九
移动互联网对社会生活的影响本质是时间与空间的解构,分析这类大数据需要把握这两点,如果仅仅分析app和网络使用行为,那么分析上就失去了移动的意义。单纯看流量、点击率等简单数字无法解决复杂的营销问题。不创新的延续原有思维模式是人类思考惰性。