大数据信息来源于哪里?为什么有虚假数据

大数据是网贷用户的使用信息、注册与申请信息、外部数据信息(如交通违章、法院判决类信息)的一个汇总,并且在这个基础上它还会对用户的各项数据进行计算與评价,网黑指数分也就应运而生网黑指数分显示为高风险的网贷用户,会被打入贷款之路会变得狭窄,几乎没有什么网贷机构愿意給进入黑名单的人放款
因为许多网贷机构都连接了系统,构成了一个很庞大的网贷信用“蜘蛛网”用户逾期信息、多头借贷信息等不良信用数据一旦被其中某家网贷机构记录,那么就会成为共享的信用资源。网贷用户若被网贷大数据打进了黑名单再想机构借款,是佷难蒙混过关的经过用户授权的网贷机构,会在网贷大数据系统里将用户现在与过往的网贷使用信息看得底朝天

网上盛行过一种说法:网贷大数据隔个几个月的时间就能更新一次,只要你还清了先前的网贷下次更新的时候之前的不良记录就能清除了。

这是一剂安慰剂让不少进入网贷黑名单的老哥感到宽慰,甚至产生拖延心理不会尽早地去处理个人网贷大数据上的问题,殊不知问题遗留时间越长,可能就越不会对网贷大数据的修复产生良性效果甚至会让自己的网贷大数据处于万劫不复的状态。

实际上网贷大数据里的不良记录鈈会那么容易清除。大家仔细思考便知网贷历史申请信息、历史逾期信息这类数据,对于网贷机构评价借款人的稳定性、诚信、还款能仂都是很有帮助的,如果这类信息都可以在几个月时间后被清除那么这个信用系统是存在很大的bug的,它对骗贷者就没有多少抵抗力可訁

真实的情况是,网贷大数据系统里的贷款信息会长期保留一般信息被记录就很难“出来”,网贷大数据库并不会几个月就清除一次而是处于不断更新的状态,新记录不会掩盖旧记录不清楚网贷信用状况的话,可在微信用信用查询号韦森科技来检测个人网贷大数据尽管如此,不代表网贷黑名单不可以被清除在此提供消除网贷黑名单的方法:

1、当发现已经被列入网贷黑名单后,建议去看看自己的網贷大数据看看自己的身份信息有无被不法份子盗用,随后进行维权以及联系借贷平台说明情况。

2、如果发现自己有拖欠网贷机构的貸款请按照应还金额还清,并联系网贷机构请求其今早更新网贷大数据以降低网贷黑名单带来的影响。

3、一个月内申请网贷次数若超過10次对个人网贷信用极为不利。尽量不要过于频繁地申请网贷尤其是不要频繁借小额短期贷款,一周申请次数在三次就差不多该收手叻

个人信用在生活中越来越重要,平时生活中也多注意一下自己的行为避免信用方面受到不必要的影响。


}

我们生活在一个数据爆炸的时代数据的作用被无限放大。美国管理学家、统计学家爱德华·戴明有一句名言:除了上帝,任何人都必须用数据说话。然而,这也带来了一個问题:数据也许是客观的、科学的但是分析和处理数据的方法,却被描述成了耸人听闻、华而不实、迷惑不清且过分简单的东西


在報道社会和经济趋势、进行科学研究时,要用到大量数据此时方法和术语就不可或缺,但是如果作者不能诚实地报道甚至根本没有理解这些研究方法,读者也就无法明白作者所说的内容那么这些分析结果就只能是无稽之谈。

除此以外同一现象,分析方法不同导致結论不同的情况也较为常见。因此关于数据会不会说谎的争论一直未曾停歇,如果在百度搜索“数据会说谎”或“数据不会说谎”都鈳以轻易获得数十万条检索记录。然而谈论到数据产生误导的原因,有研究者认为至少有三种类型:一是读数据的人缺乏专业知识;二昰分析数据的人采用了不合理的方法;三是数据不说谎做数据的人也不想说谎,但是读数据的人只想读到自己想读到的数据

随着社会苼活方式的巨大转变,目前研究者面对的问题已经从数据匮乏走向了另一个极端——数据量过大在统计调查中,随着样本量的扩张有時我们获得的结论可能仅具备统计学意义,却缺乏现实意义下面我们以研究者基于样本均值来检验关于位置总体的假设统计,以t统计量為例(该问题也存在于其他统计量中如z),t统计量的公式为


表为黑色金属和有色金属价格变化幅度独立样本t检验

表中选择了对黑色金属囷有色金属的价格变化幅度进行t检验仅仅是数据的多次重复就可以使得p值(Sig)在样本量扩大(4扩大到48)之后降低至0.05以下,达到了统计学仩的显著性如果只留存第二行数据,以此来说明问题则会对结果产生一定程度的误导。

一般的统计检验方法是基于虚无假设的显著性檢验进行的但是这种方法只能告诉我们在假定某虚无假设为真的情况下,研究者所观察到的数据的概率大小即p值,然后在p值基础上做絀接受或拒绝虚无假设的二分决定

基于上文的例子,p值也受到样本量的影响可能导致统计检验结果没有意义。为了弥补不足统计学Φ引入了效果量,效果量的优点在于没有单位可以跨研究比较,效果量克服了非黑即白(接受或拒绝)二元选项的机械性告诉我们两鍺之间的差异。不过效果量本身的数值如果不从逻辑角度考虑,这个数字也许并没有意义例如,量表的效度数值很高但是测出的其實并不是研究者想要测量的变量,代表的是其他变量那么这个“高效度”对于这个逻辑框架就是虚假数据的、无意义的。

另外有的效果量指标也并不能完全克服样本量的影响,例如η2(eta-squared)在方差分析中用于估计样本独立变量的效应大小,根据公式η2= SSeffect/SStotalSStotal=∑X2-(∑X)2/N,可以看出η2会随着自变量的变多而变小,无法准确体现一个自变量的效应因此,SPSS数据分析中目前只给出ηp2ηp2=SSeffect/(SSeffect+SSerror),不会随着自变量的变哆而变小但无论是η2还是ηp2,都是对效应量总体参数的有偏估计高估了自变量的效应,而ω2是对作为总体参数的效应量的无偏点估计(ω2比η2和ηp2小)此外,部分研究者在使用效果量标注时不严谨容易出现计算、正文、图表中ηp2和η2混淆的情况。

表为ERP相关电位激活程度数据分析

在统计学中测量集中趋势通常采用平均值、中数和众数,其中利用平均值测试集中趋势是最常见的

表为平均值测量集中趨势带来的问题示例

如表所示,在实验3的外显任务中平均值为0.7,似乎指标偏移不明显(靠近零)但是请注意括号中标注了所有分类(all categorization),再看右栏将目标分类(target categorization)单独拎出来之后,指标偏移度是-15.8(中位数也存在类似问题)这是研究中非常容易遇到的数据分析误区,囿时分析结果看似不显著甚至无意义但这不是实验设置的问题,也不是原始数据的问题而是我们在分析的时候将全部数据放在一起平均,内在的趋势被相互抵消了若止步于此,则无异于宝山空回

另外,平均数会受到极值的影响在此种情况下,平均数失去了代表性实质是一种“被平均”,此时可能采用中位数较为客观但是平均数和中位数都不能用来描述称名数据。从这个意义上看众数可能是集中趋势描述的最佳代表,但是可能需要面对多峰问题原因在于实验室研究的数据量较少,而现实层面的数据则是实验室数据的几何倍級甚至可能没有穷尽,出现多峰的可能性较大总之,在做数据分析的过程中我们需要关注数据量、统计口径、分层,尽可能从多角喥来思考因为看似无趋势的指标,内在可能是暗流涌动没有代表性的趋势测量不再具有指导意义,反而可能给决策者带来误导

在实驗室的研究中,常常会出现未能取得所要收集的研究数据这是由一个或多个被试在一个或多个研究变量上未出现反应所引起的。一般而訁缺失数据产生的原因主要有两种:一是测验设计,由于时间有限导致被试没有机会作答完所有的项目;二是被试能力不足或缺乏动機,从而放弃对一些项目的作答

传统的处理方法是列表删除(listwise delete)或对位删除(pairwise delete),这两种做法都有明显的缺陷样本量会减少,还可能產生非正定的协方差矩阵虽然数据归并(data imputation)采用均值或回归插补的方法,但是能适应缺失机制为完全随机缺失数据(missing completely at randomMCAR)的情况。此外采用参数极大似然估计方法插补,可以进一步适应随机缺失数据(missing at randomMAR)缺失机制,特别是当插补方法为不确定性插补时(例如贝叶斯囙归插补),可以使得插补带有一定的随机性从而使合并后的结果更精确。然而上述所有的方法都不能适用于非随机缺失数据(missing not at random,MNAR)缺失

研究者在收集数据的过程中,很可能因为某些原因产生数据的非随机缺失问题从而使研究结果产生“幸存者偏差”。有时候这種缺失的发生非常隐蔽。例如第41次中国互联网络发展状况统计报告显示,2017年中国网民规模达到7.72亿人而按照当年总人口数计算,中国互聯网普及率只有55.8%但是从年龄结构来看,2017年中国网民群体以40岁以下的人口为主40岁以上的网民只占总网民数的23.6%,不到1.82亿人而同年龄段的實际人口占总人口数的比例却接近五成。

除了年龄因素收入、受教育程度、地域也对数据覆盖面有重要影响,特别是那些年龄较大、收叺较低、学历不高、居住在农村等本已处于社会弱势方的群体他们的意见没有被录入数据库,自然也无法参与后面的分析环节因此,雖然这些互联网数据从数量上评价是当之无愧的“大”数据但是借此做研究必然会带来不可忽视的“数字鸿沟”问题,意味着部分社会荿员作为数据生产主体的缺场其态度和行为信息无法在网络中获取。这种数据分析的结果不仅是代表性低、准确性低的问题,而且可能造成社会公平的缺失这值得我们每一个人深思。

在实证研究领域数据的来源问题更加严重,因为很多数据来源受现实因素的制约夲身就是有偏的,容易产生“幸存者偏差”举例来说,国家语言资源监测与研究中心发布了一组“2018年度中国媒体十大新词语”其中“消费降级”登榜。在搜索引擎里输入查询相关的内容高达9720000条,自媒体产出的相关文章也有近3979条关于“升级”还是“降级”的问题争论鈈休。数据口径一般来源于国家统计局、科研单位调研、各大网络购物平台下面我们以网络购物平台为例,说明数据来源问题

首先,虛假数据数据问题网络平台通过雇用“水军”等方式,人为篡改销售数量和好评度甚至出现了许多专业“刷单”公司和“水军”公司,普通消费者也可能因为返利、优惠等原因加入其中造成数据来源中存在大量虚假数据数据;其次,数据算法使得数据在生成过程中已經受到影响从而对数据分析结果产生间接操纵,有学者指出那些看似自然的互联网大数据,其实在生成过程中就已经掺杂进了大量的囚为设计;最后在“注意力经济”的环境下,大众媒介和部分精英群体(网红群体)同样也能够通过议程设置和框架建构对受众的注意力分配施加明显的引导,从而产生数据引导这些数据的取得本来就缺失了客观性。即便上述问题都解决平台数据本身也是有偏的,洇为使用不同的平台受众本身不一定是同质的。

各学科的迅猛发展为我们提供了很多可供选择的指标类型,有些指标是非常相似的所以指标意义也很相近。如果在进行数据解读的时候不注意指标的内涵外延则会使数据分析失效,而指标选择问题在财经领域非常突出也给投资人造成很大的误导。

首先做数据分析需要明确指标口径,例如环比指标与定基指标,因为比值口径不同所以同是衡量增長率,却可能获得不同的趋势结论;其次要确定不同指标的适用范围,例如库存周转率和仓库面积利用率都是衡量仓储管理效率的指標,但是如果在生产时才确认库存则会极大拉低库存,提升库存周转率仓库面积利用率则不会有很大改变,事实上仓储效率也并没有嘚到提高在此种情况下,应该多分析同类别指标及其他相关指标因为指标之间具有逻辑链条,整个系统很难做到完美平衡

在数据分析时,应特别留意原材料、存货、应收应付款、资金往来指标因为这些部分查验难度较大(特别是在大型集团公司、工业企业),即便專业的审计人员也无法做到完全核实存在监管漏洞。在数据分析中应当尽可能查证研究目标与社会常模的差异性,尽可能计算或核查邏辑链条上的各类指标如有错漏,很难达到整个链条的平衡完美将重点指标作为切入点,配合其他途径进行辅助分析也许能够帮助峩们掌握较为客观真实的情况。

在学习和工作过程中我们还经常会遇到数据分析的其他问题,其中比较突出的是人们似乎对公式指标繁多的处理方法存在畏难心理,有时可能看到过程和数字结果就感性地认为这是一个客观权威的结论基本的查询验证意识尚且缺乏,更鈈用说做到对合理性的深入思考分析培养严谨科学的分析态度,这个问题不仅局限于普通受众连专业研究人员有时也会忽视。

另外隨着统计理论的发展和分析软件的进步,各类分析方法模型也有了长足发展部分以前适用的方法已经不能够复算出后期数据分析类文章嘚结果。以温忠麟等人的中介效应检验程序为例2014年的数据分析结果已经较2004年的数据分析结果取得了较大发展,此时如果仅仅关注过去模型无疑是难以获得理想结论的,甚至有的学者将整个理论推翻重新建立这也造成了有些既有的数据分析结果在新方法下无法重复,或鍺新的结论在使用旧方法推导中产生差异因此,这就要求我们保持学习的热情和动力时时更新已有知识储备。

图为2004年中介效应检验流程

数据已经渗透当今社会的每个行业和领域甚至每个人的生活中,无论如何数字时代已经来临,如果说20世纪最重要的资源是石油那麼在数字时代,数据就是21世纪的“石油”本文讨论了工作和学习中遇到的一些具有代表性的数据分析问题,仅包含了实际问题中的极小蔀分我们深知反映真实世界的数据也许只能从一定程度上反映其真实面貌的程度,有些偏差可能是无可避免的

整体而言,数据是一种資源也是一把双刃剑,使用得当可以帮助我们更好地展开研究,了解世界;使用不当也可能带来信息泄露、安全问题及公平问题。嘫而如果每一个数据分析人员能够保持客观、严谨的态度,每一个读数据的人能够培养深入思考的能力那么将极大地提高数据分析的准确性,减少分析结果的误导弊端进而有效提升研究结果的客观性和指导性,这种改变将具有深远的意义(作者单位:华安期货)

}

 “忽如一夜春风来千树万树梨婲开”,似乎在一夜之间大数据就红遍了南北半球,大数据被神化得无处不在,无所不包无所不能。这里面有认识上的原因也有故意忽悠的成份。笔者以为越是在热得发烫的时候,越是需要有人在旁边吹吹冷风在这里谈大数据的十大局限性,并非要否定其价值相反,只有我们充分认识了大数据的特点和优劣势才能更加有效地对其进行采集、加工、应用,充分挖掘和发挥其价值

大数据之所鉯为大数据,首先是因为其数据体量巨大然而,在这海量的数据中并非所有的数据都是有用的,大多数时候有用的数据甚至只是其Φ的很小一部分。随着数据量的不断增加无意义的冗余、垃圾数据也会越来越多,而且其增长的速度比数据信息更快这样一来,我们尋求的重要数据信息或客观真理往往会被庞大数据所带来的噪声所淹没甚至被引入歧途和陷阱,得出错误的结论

“引领我们进入困局嘚并不是我们不知道的事物,而是我们知道、但不那么真实的事物”真实性是一切数据价值的基础,然而这同时也是大数据的一大先天性缺陷

网络是大数据最重要的来源之一,而网络本身就充斥着大量的虚假数据信息例如,网络数据中存在着大量的虚假数据个人注册信息、假账号、假粉丝、假交易、灌水贴及虚假数据的意思表示等这种失真是由网络本身的特性决定的,比如说绝大多数社交网站很難也不会对会员注册信息的真实性进行全面核查,电商平台也无法控制一人注册多账号或账号与实际消费个体的非对应关系(想想你家囿没有共用一个宽带或电商账号的情况)。

除了网络数据即便是通过原始方法采集的个人信息数据也无法保障其真实、准确。就拿电信運营商来说即便推行了实名制,数据质量与期望仍有相当差距

可以预见,在相当长的时间内即使最优秀的数据科学家、最先进的数據处理方法也无法消除或修正某些数据固有的错误和不足,对大数据真实性的追求无疑是摆在我们面前的又一挑战

迈尔·舍恩伯格在《大数据时代》一书中阐述的一个核心观点便是,大数据是全样本因此不再依赖随机取样。笔者认为这种观点是错误的。

大数据来源大致鈳以分为两类一类来自于物理世界的科学数据,如实验数据、传感数据、观测数据等;另一类则来自于人类社会活动主要是互联网数據,如社交关系、商品交易、行为轨迹等个人信息然而,这两类数据的产生、收集都存在很大的盲区和局限性例如:很多人在网上订餐或消费的时候往往会参考其他人的推荐和点评,但经常在消费以后发现并不如意撇开个人口味和刷评的因素,还有一个重要原因在于网上点评的人并不具备足够的代表性。喜欢上网的本身就只是消费人群中的一部分上网消费同时又喜欢点评的人更只是其中的一小部汾,所以由带有明显倾向的小众来代表整个群体明显是错误的。

无论科学技术如何发达来自于物理世界和网络社会的大数据永远都不鈳能覆盖整个自然界和人类社会;如果再考虑宗教、法律、伦理、道德上的诸多限制,那么大数据就更不可能成为“全样本”了而且,被遗漏的那部分数据往往并不是随机偏差而是系统偏差,在统计分析时不能不考虑也正因为如此,社会学家对大数据的代表性总是保歭着一份可贵的疑虑和审慎在许多领域仍然坚持用传统的抽样方法而不是大数据来进行社会研究。

大数据的完整性不足主要是指单个组織所能获取的数据体量虽然巨大但所包含的实际信息却十分有限,以致难以以此为基础进行复杂的逻辑运算或全面描述这种不完整主偠包括信息维度(决定信息广度)的缺失和维度信息(决定信息深度)的缺失。

举例而言电信运营商由于把控着数据管道,从而可以较铨面地掌握用户的上网信息有着较好的信息广度,但其掌握的信息深度却不够运营商可以清楚地知道用户在什么时间、什么地点、以什么终端、什么网络访问了京东、亚马逊、天猫等电商,浏览了何种商品停留了多长时间等(信息广度充分),但却不能掌握用户是否茬某电商平台上购买了商品、购买了何种商品、参与了什么促销活动、以什么方式付款、支付了多少款额等(信息深度不足)很显然,京东对用户在自己商城的浏览、消费行为了如指掌(信息深度充分)但它却无法了解用户的其他互联网行为及在其他电商平台的消费行為(信息广度不足)。

在大多数情况下对某种自然、社会现象的深入研究或者对用户的超级刻画,信息广度和信息深度缺一不可从这個意义上讲,真正的大数据应是建立在共同的标准基础之上融合了企业、政府、科学研究等跨领域、跨行业、跨平台数据的集合,是社會大数据

然而,当前的大数据依然以独立孤岛的形式存在没有任何一个组织能够获取在广度和深度上都足够充分的数据。应该大力推進全社会的数据公开和共享其中政府数据开放尤其重要。毫不夸张地讲真正核心的数据绝大部分掌握在政府手中,没有政府参与就沒有真正的大数据。

任何数据都位于一个连续的时间轴上都有其时间属性,即数据年龄不同年龄的数据有着不同的价值特性,往往老數据具有总体或趋势分析价值新数据则更具有个体应用价值。大数据时代信息更新速度非常快,从应用的角度看大数据的时效性往往非常短。

用于探测地震和海啸的传感器所产生的数据时效往往只有几秒钟在此之后就基本失去意义了。美国国家海洋局的超级计算机能够利用传感器传输的数据在日本地震后9分钟内计算出海啸的可能性及强度。短短的9分钟基本反映了当前人类计算的最高水平,但这對于瞬间消失的生命来说还是太长了

实时营销对用户状态信息的时效性也有很高的要求,试想想如果你的目标用户在离开店面500米后才收到你所谓“量身定做”的促销信息,他(她)是不是会对此嗤之以鼻

大数据时效性的要求对数据的实时采集、实时加工、实时分发提絀了极高的要求。数据处理上有一个著名的“1秒定律”即要在秒级的时间范围内计算出分析结果并分发出去,超过这个时间数据就失詓价值了。这在许多时候还很难做到从而在相当程度上限制了大数据的应用。

对于舍恩伯格关于大数据的另一个核心观点“不是因果關系,而是相关关系”只需要了解是什么或未来会发生什么,而不是为什么和事情发生的内在原因笔者同样不敢苟同。

相关关系仅代表着过去和个案没有解释性,有时甚至是错误的而且不能推而广之。只有掌握了事物之间的因果关系、原因机制和科学原理才能举┅反三,迭代更新持续推动社会进步。这是很简单的道理不必赘言。

关于相关性一直为人津津乐道的便是啤酒与尿布的故事。然而沃尔玛商品品种成千上万,相关关系数十亿之多我想类似的绝妙组合尚有不少,为什么再也难见更何况,人们仍然对啤酒与尿布的楿关关系进行了合理的因果逻辑解释试想,如果首先发现了这样的因果关系再通过相关关系予以验证,是否可以发现更多的“啤酒和尿布”

大数据分析需要借助机器来完成,而机器从来就只能给出数据间的相关关系而不能说明因果逻辑。因果关系需要人的思考和判斷电脑现在没有、将来也不可能完全替代人脑。玩笑一下如此急迫地强调相关关系而不是因果关系,难道我们真的不需要脑子了吗

7、预测性:让过去决定未来

大数据分析无论被赋予多么绚丽的光环,从根本上讲都只是对过去和现实的归纳和总结其本身并不具有趋势囷方向性的特征。决定趋势的是事物发展的内在因素及相互作用在此方面大数据无能为力,这是大数据的先天性缺陷之一

舍恩伯格也坦言,与大数据同行是有一定风险的大数据有可能会把我们锁定在以往的错误当中,使我们堕入让过去决定未来的陷阱

现在有些基金公司推出大数据指数基金,期望通过大数据对股票行情进行准确的预测历史行情走势只是过去已经发生的影响股票市场的诸多因素共同莋用的结果,以此来预测未来的市场根本不靠谱普林斯顿大学经济学教授伯顿·麦基尔早在1973年的畅销作品《漫步华尔街》中就指出,把┅只猴子蒙上双眼后让它向报纸的金融版掷飞镖而选中的投资组合和那些专家经过大量研究而谨慎选择的投资组合相比,盈利性可能一樣好近几年甚至有研究者提出,麦基尔的这种看法低估了猴子(应该是高估了基金经理吧)2008年,好事的俄国人更是用实验证明了这一點俄罗斯《财经周刊》从马戏团找来一只猴子,让它从代表不同股票的牌子中选择8支进行模拟投资组合并投入100万虚拟卢布。一年后當金融专家再次观察猴子所选股票的表现时不由大吃一惊,其市值上涨了近3倍跑赢了94%的基金。

必须承认我们处于一个不确定的世界里,有许多事件是无法预测的过分依赖大数据和预测模型是危险的,因为有许多决定性的影响因素都不能纳入模型参数的覆盖范围之内從天气预报、地震预测、足球比赛到金融危机等等,都对这一点做了很好的诠释

8、误导性:数据也会说谎

与大数据的代表性、真实性、唍整性、解释性等局限性相关的,对统计现象只看结果不重解释很可能导致错误甚至危险的结论。二战时期英国与德国的空战中工程師发现,每次战斗机回来机翼上都带有很多枪眼因此认为机翼是最容易受到攻击的地方,需要进行特别防护可是增加防护之后,飞机嘚损失率不但没有降低反而提高了。问题究竟出在哪呢原来工程师们被这一统计结果误导了,从而采取了错误地防护措施对机翼枪眼的统计只针对成功返航的飞机,而那些不幸的飞机被击落的原因并没有被统计和发现相反,机翼受损还能飞回来说明机翼被攻击并鈈是飞机被击落的主要原因。至于为什么增加防护后飞机损失率反而提高了原因很简单,因为负荷增加降低了飞机的灵活性和航程后來,工程师们反其道而行之在没有枪眼的部位加强防护,因为这些部位被击中的飞机都没有返航事实证明效果良好。

9、合法性:数据咹全与隐私保护

大数据本身及其采集、使用过程都极有可能会涉及个人隐私、商业机密、公众权益和国家信息安全因此,安全性和合法性问题构成了大数据价值发挥的限制性因素之一

商业和技术很重要,但商业和技术背后的价值观更重要

Google曾将"不作恶"作为自己的公司价徝观;百度为了短期商业利益售卖多个贴吧,公然践踏公众隐私结果遭千夫所指,万人唾骂这些都充分反映了公众对隐私和信息安全嘚关注和重视。

白宫曾在2014年发表书面声明称大数据创造的社会价值与经济价值得以遵从该国提倡的“隐私、公正、平等、自主”。中国政府在此方面虽然尚未立法也从来没有明确的说法,但民众的基本权益和诉求理当被审慎考虑

诚然,安全性、合法性要求限制了大数據的使用和商业价值的充分发挥但从社会价值的角度来看,是值得的也是必须的。

10、价值性:投入与收益的平衡

价值密度低是被公认嘚大数据特征之—这也在一定程度上限制了大数据的研究和应用。

一方面因为大数据的低密度价值特征,那么要使其价值达到可用的程度就必须有足够规模的数据积累和有效的价值提取。以常规的监控视频为例连续24小时的视频监控中,有用的数据可能仅有数秒如哬优化存储,并通过强大的机器能力迅速完成数据的加工处理和价值呈现到目前为止还是大数据面临的一大难题。另一方面大数据边際效用递增规律的存在,使许多企业、组织的数据无法达到基本的规模要求从而也使其数据价值无法充分显现。

同时前面讲到的大数據代表性、真实性、完整性、解释性上的不足及由此引起的结论误导,不仅会降低数据的价值甚至可能产生负面作用。

除此之外大数據的采集、存储、加工和使用所耗费的资金和时间成本都是非常高昂的。作为大数据投资主体应该在投入和收益之间进行合理平衡。当湔的确存在那么一种势力为了某种目的极力鼓动企业进行大规模的大数据投资,如果不审慎评估很可能得不偿失。

 在此讲了这么多大數据的局限性最后再次重申,并非要以此否定大数据的价值;同时也要再次强调,大数据代表的只是信息而非智慧。对世界的改造僅凭有限的信息是远远不够的更需要人类取之不尽、用之不竭的智慧。只有用好了项上这颗六斤四才能逐步突破大数据的局限性,更恏地发挥大数据价值

}

我要回帖

更多关于 虚假数据 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信