首页>>互联网>>大数据->大数据分析缺失率达到多少就无法做(大数据没有数据分析)

大数据分析缺失率达到多少就无法做(大数据没有数据分析)

时间:2023-12-04 本站 点击:0

本篇文章首席CTO笔记来给大家介绍有关大数据分析缺失率达到多少就无法做以及大数据没有数据分析的相关内容,希望对大家有所帮助,一起来看看吧。

本文目录一览:

1、数据缺失值不能超过多少2、大数据分析会遇到哪些问题?3、数据分析中的缺失值处理4、多重插补为什么要汇总分析

数据缺失值不能超过多少

超过百分之一就很多了,如果缺失很严重可以尝试使用我们免费开源的的缺失值补值软件MetImp,包括了根据缺失值所占比例对变量进行筛选,以及随机缺失(RF, SVD, kNN, Mean, Median)和非随机缺失(GSimp, QRILC, HM, Zero, Binary)的各种补值方法。我觉得,如果变量与变量之间有关联、可以相互预测(比如说家庭年收入和教育程度),或者缺失的原因是低于最低检测限,等等原因,那么还是可以找方法去补值的,关键是弄清楚缺失的原因,找到得当的方法。

大数据分析会遇到哪些问题?

1.很难获得用户操作行为完整日志

现阶段数据剖析以统计为主,如用户量、使用时间点时长和使用频率等。一是需求辨认用户,二是记录行为简单引起程序运转速度,三是开发本钱较高。

2.产品缺少中心方针

这需求剖析人员满足的了解产品。产品有了中心方针,拆分用户操作使命和目的,剖析才会有目的,不然拿到一堆数据不知如何下手。比方讲输入法的中心方针设为每分钟输入频率,顺着这个方针能够剖析出哪些因素正向影响(如按键简单点击)和反向影响(如模糊音、误点击和点击退格键的次数)中心方针。

3.短期内或许难以发挥作用

数据剖析需求不断的试错,很难在短期内证明方法的有效性,或许难以获得其他人物的支撑。

4.将剖析转化为有指导意义的结论或许设计

看过某使用的近四十个设置项的使用比例,修改皮肤使用率较高,而单个选项使用率不到0.1%,依次数据能够调整设置项的层级联系,重要的选项放置到一级着重显现,低于5%的能够放置二三级。

5.清晰用户操作目的

功能关于用户而言,使用率不是越高越好。添加达到的方针的途径,用户考虑本钱添加,操作次数会添加,比方查找。在使用中使用查找或许阐明用户没有通过浏览找到想要的内容,假如用户查找热门内容,阐明使用展示信息的方法出现问题。

6.考虑到运营需求

之前做过的工具型使用,设计的中心方针是进步操作效率,削减点击次数、等待时间和手指位移等,最快的时间完成操作。而一些浏览型产品用户的目的并不清晰,大致有浏览、查询、对比和确认方针等四类用户行为,需求兼容用户方针不清晰情况下操作,引导用户选择的一起还要在过程中展示更多的内容,刺激用户点击。

关于大数据分析会遇到哪些问题,青藤小编就和您分享到这里了。如果你对大数据工程有浓厚的兴趣,希望这篇文章能够对你有所帮助。如果您还想了解更多数据分析师、大数据工程师的技巧及素材等内容,可以点击本站的其他文章进行学习。

数据分析中的缺失值处理

数据分析中的缺失值处理

没有高质量的数据,就没有高质量的数据挖掘结果,数据值缺失是数据分析中经常遇到的问题之一。当缺失比例很小时,可直接对缺失记录进行舍弃或进行手工处理。但在实际数据中,往往缺失数据占有相当的比重。这时如果手工处理非常低效,如果舍弃缺失记录,则会丢失大量信息,使不完全观测数据与完全观测数据间产生系统差异,对这样的数据进行分析,你很可能会得出错误的结论。

造成数据缺失的原因

现实世界中的数据异常杂乱,属性值缺失的情况经常发全甚至是不可避免的。造成数据缺失的原因是多方面的:

信息暂时无法获取。例如在医疗数据库中,并非所有病人的所有临床检验结果都能在给定的时间内得到,就致使一部分属性值空缺出来。

信息被遗漏。可能是因为输入时认为不重要、忘记填写了或对数据理解错误而遗漏,也可能是由于数据采集设备的故障、存储介质的故障、传输媒体的故障、一些人为因素等原因而丢失。

有些对象的某个或某些属性是不可用的。如一个未婚者的配偶姓名、一个儿童的固定收入状况等。

有些信息(被认为)是不重要的。如一个属性的取值与给定语境是无关。

获取这些信息的代价太大。

系统实时性能要求较高。即要求得到这些信息前迅速做出判断或决策。

对缺失值的处理要具体问题具体分析,为什么要具体问题具体分析呢?因为属性缺失有时并不意味着数据缺失,缺失本身是包含信息的,所以需要根据不同应用场景下缺失值可能包含的信息进行合理填充。下面通过一些例子来说明如何具体问题具体分析,仁者见仁智者见智,仅供参考:

“年收入”:商品推荐场景下填充平均值,借贷额度场景下填充最小值;

“行为时间点”:填充众数;

“价格”:商品推荐场景下填充最小值,商品匹配场景下填充平均值;

“人体寿命”:保险费用估计场景下填充最大值,人口估计场景下填充平均值;

“驾龄”:没有填写这一项的用户可能是没有车,为它填充为0较为合理;

”本科毕业时间”:没有填写这一项的用户可能是没有上大学,为它填充正无穷比较合理;

“婚姻状态”:没有填写这一项的用户可能对自己的隐私比较敏感,应单独设为一个分类,如已婚1、未婚0、未填-1。

缺失的类型

在对缺失数据进行处理前,了解数据缺失的机制和形式是十分必要的。将数据集中不含缺失值的变量称为完全变量,数据集中含有缺失值的变量称为不完全变量。从缺失的分布来将缺失可以分为完全随机缺失,随机缺失和完全非随机缺失。

完全随机缺失(missing completely at random,MCAR):指的是数据的缺失是完全随机的,不依赖于任何不完全变量或完全变量,不影响样本的无偏性。如家庭地址缺失。

随机缺失(missing at random,MAR):指的是数据的缺失不是完全随机的,即该类数据的缺失依赖于其他完全变量。例如财务数据缺失情况与企业的大小有关。

非随机缺失(missing not at random,MNAR):指的是数据的缺失与不完全变量自身的取值有关。如高收入人群的不原意提供家庭收入。

对于随机缺失和非随机缺失,删除记录是不合适的,随机缺失可以通过已知变量对缺失值进行估计;而非随机缺失还没有很好的解决办法。

说明:对于分类问题,可以分析缺失的样本中,类别之间的比例和整体数据集中,类别的比例

缺失值处理的必要性

数据缺失在许多研究领域都是一个复杂的问题。对数据挖掘来说,缺省值的存在,造成了以下影响:

系统丢失了大量的有用信息;

系统中所表现出的不确定性更加显著,系统中蕴涵的确定性成分更难把握;

包含空值的数据会使挖掘过程陷入混乱,导致不可靠的输出。

数据挖掘算法本身更致力于避免数据过分拟合所建的模型,这一特性使得它难以通过自身的算法去很好地处理不完整数据。因此,缺省值需要通过专门的方法进行推导、填充等,以减少数据挖掘算法与实际应用之间的差距。

缺失值处理方法的分析与比较

处理不完整数据集的方法主要有三大类:删除元组、数据补齐、不处理。

删除元组

也就是将存在遗漏信息属性值的对象(元组,记录)删除,从而得到一个完备的信息表。这种方法简单易行,在对象有多个属性缺失值、被删除的含缺失值的对象与初始数据集的数据量相比非常小的情况下非常有效,类标号缺失时通常使用该方法。

然而,这种方法却有很大的局限性。它以减少历史数据来换取信息的完备,会丢弃大量隐藏在这些对象中的信息。在初始数据集包含的对象很少的情况下,删除少量对象足以严重影响信息的客观性和结果的正确性;因此,当缺失数据所占比例较大,特别当遗漏数据非随机分布时,这种方法可能导致数据发生偏离,从而引出错误的结论。

说明:删除元组,或者直接删除该列特征,有时候会导致性能下降。

数据补齐

这类方法是用一定的值去填充空值,从而使信息表完备化。通常基于统计学原理,根据初始数据集中其余对象取值的分布情况来对一个缺失值进行填充。数据挖掘中常用的有以下几种补齐方法:

人工填写(filling manually)

由于最了解数据的还是用户自己,因此这个方法产生数据偏离最小,可能是填充效果最好的一种。然而一般来说,该方法很费时,当数据规模很大、空值很多的时候,该方法是不可行的。

特殊值填充(Treating Missing Attribute values as Special values)

将空值作为一种特殊的属性值来处理,它不同于其他的任何属性值。如所有的空值都用“unknown”填充。这样将形成另一个有趣的概念,可能导致严重的数据偏离,一般不推荐使用。

平均值填充(Mean/Mode Completer)

将初始数据集中的属性分为数值属性和非数值属性来分别进行处理。

如果空值是数值型的,就根据该属性在其他所有对象的取值的平均值来填充该缺失的属性值;

如果空值是非数值型的,就根据统计学中的众数原理,用该属性在其他所有对象的取值次数最多的值(即出现频率最高的值)来补齐该缺失的属性值。与其相似的另一种方法叫条件平均值填充法(Conditional Mean Completer)。在该方法中,用于求平均的值并不是从数据集的所有对象中取,而是从与该对象具有相同决策属性值的对象中取得。

这两种数据的补齐方法,其基本的出发点都是一样的,以最大概率可能的取值来补充缺失的属性值,只是在具体方法上有一点不同。与其他方法相比,它是用现存数据的多数信息来推测缺失值。

热卡填充(Hot deck imputation,或就近补齐)

对于一个包含空值的对象,热卡填充法在完整数据中找到一个与它最相似的对象,然后用这个相似对象的值来进行填充。不同的问题可能会选用不同的标准来对相似进行判定。该方法概念上很简单,且利用了数据间的关系来进行空值估计。这个方法的缺点在于难以定义相似标准,主观因素较多。

K最近距离邻法(K-means clustering)

先根据欧式距离或相关分析来确定距离具有缺失数据样本最近的K个样本,将这K个值加权平均来估计该样本的缺失数据。

使用所有可能的值填充(Assigning All Possible values of the Attribute)

用空缺属性值的所有可能的属性取值来填充,能够得到较好的补齐效果。但是,当数据量很大或者遗漏的属性值较多时,其计算的代价很大,可能的测试方案很多。

组合完整化方法(Combinatorial Completer)

用空缺属性值的所有可能的属性取值来试,并从最终属性的约简结果中选择最好的一个作为填补的属性值。这是以约简为目的的数据补齐方法,能够得到好的约简结果;但是,当数据量很大或者遗漏的属性值较多时,其计算的代价很大。

回归(Regression)

基于完整的数据集,建立回归方程。对于包含空值的对象,将已知属性值代入方程来估计未知属性值,以此估计值来进行填充。当变量不是线性相关时会导致有偏差的估计。

期望值最大化方法(Expectation maximization,EM)

EM算法是一种在不完全数据情况下计算极大似然估计或者后验分布的迭代算法。在每一迭代循环过程中交替执行两个步骤:E步(Excepctaion step,期望步),在给定完全数据和前一次迭代所得到的参数估计的情况下计算完全数据对应的对数似然函数的条件期望;M步(Maximzation step,极大化步),用极大化对数似然函数以确定参数的值,并用于下步的迭代。算法在E步和M步之间不断迭代直至收敛,即两次迭代之间的参数变化小于一个预先给定的阈值时结束。该方法可能会陷入局部极值,收敛速度也不是很快,并且计算很复杂。

多重填补(Multiple Imputation,MI)

多重填补方法分为三个步骤:

为每个空值产生一套可能的填补值,这些值反映了无响应模型的不确定性;每个值都被用来填补数据集中的缺失值,产生若干个完整数据集合。

每个填补数据集合都用针对完整数据集的统计方法进行统计分析。

对来自各个填补数据集的结果进行综合,产生最终的统计推断,这一推断考虑到了由于数据填补而产生的不确定性。该方法将空缺值视为随机样本,这样计算出来的统计推断可能受到空缺值的不确定性的影响。该方法的计算也很复杂。

C4.5方法

通过寻找属性间的关系来对遗失值填充。它寻找之间具有最大相关性的两个属性,其中没有遗失值的一个称为代理属性,另一个称为原始属性,用代理属性决定原始属性中的遗失值。这种基于规则归纳的方法只能处理基数较小的名词型属性。

就几种基于统计的方法而言,删除元组法和平均值法差于热卡填充法、期望值最大化方法和多重填充法;回归是比较好的一种方法,但仍比不上hot deck和EM;EM缺少MI包含的不确定成分。值得注意的是,这些方法直接处理的是模型参数的估计而不是空缺值预测本身。它们合适于处理无监督学习的问题,而对有监督学习来说,情况就不尽相同了。譬如,你可以删除包含空值的对象用完整的数据集来进行训练,但预测时你却不能忽略包含空值的对象。另外,C4.5和使用所有可能的值填充方法也有较好的补齐效果,人工填写和特殊值填充则是一般不推荐使用的。

不处理

补齐处理只是将未知值补以我们的主观估计值,不一定完全符合客观事实,在对不完备信息进行补齐处理的同时,我们或多或少地改变了原始的信息系统。而且,对空值不正确的填充往往将新的噪声引入数据中,使挖掘任务产生错误的结果。因此,在许多情况下,我们还是希望在保持原始信息不发生变化的前提下对信息系统进行处理。

不处理缺失值,直接在包含空值的数据上进行数据挖掘的方法包括贝叶斯网络和人工神经网络等。

贝叶斯网络提供了一种自然的表示变量间因果信息的方法,用来发现数据间的潜在关系。在这个网络中,用节点表示变量,有向边表示变量间的依赖关系。贝叶斯网络仅适合于对领域知识具有一定了解的情况,至少对变量间的依赖关系较清楚的情况。否则直接从数据中学习贝叶斯网的结构不但复杂性较高(随着变量的增加,指数级增加),网络维护代价昂贵,而且它的估计参数较多,为系统带来了高方差,影响了它的预测精度。

人工神经网络可以有效的对付缺失值,但人工神经网络在这方面的研究还有待进一步深入展开。

知乎上的一种方案:

4.把变量映射到高维空间。比如性别,有男、女、缺失三种情况,则映射成3个变量:是否男、是否女、是否缺失。连续型变量也可以这样处理。比如Google、百度的CTR预估模型,预处理时会把所有变量都这样处理,达到几亿维。这样做的好处是完整保留了原始数据的全部信息、不用考虑缺失值、不用考虑线性不可分之类的问题。缺点是计算量大大提升。

而且只有在样本量非常大的时候效果才好,否则会因为过于稀疏,效果很差。

总结

大多数数据挖掘系统都是在数据挖掘之前的数据预处理阶段采用第一、第二类方法来对空缺数据进行处理。并不存在一种处理空值的方法可以适合于任何问题。无论哪种方式填充,都无法避免主观因素对原系统的影响,并且在空值过多的情形下将系统完备化是不可行的。从理论上来说,贝叶斯考虑了一切,但是只有当数据集较小或满足某些条件(如多元正态分布)时完全贝叶斯分析才是可行的。而现阶段人工神经网络方法在数据挖掘中的应用仍很有限。值得一提的是,采用不精确信息处理数据的不完备性已得到了广泛的研究。不完备数据的表达方法所依据的理论主要有可信度理论、概率论、模糊集合论、可能性理论,D-S的证据理论等。

多重插补为什么要汇总分析

是Rubin在1978年首次提出。以下为各种概念:

用m个插补值的向量代替每一个缺失值。(m要求大于等于20)分别用这m个插补值代替每一个缺失值从而建立m个完整数据集。多重插补是通过多个单一插补的组合。

应对一般的统计软件只会进行行删除法,或者个案删除法,在数据集中出现大量缺失值得时候,就会出现剩余的样本不足与反映出真是情况的可能,所以可以使用多重插补给到的概念:是一种基于重复模拟的处理缺失值的方法。它从一个包含缺失值的数据集中生成一组完整的数据集。每个数据集中的缺失数据用蒙特卡洛方法来填补。

假定在数据随机缺失的情况下,用两个或者更多能够反映数据本身概率分布的值来填补缺失值的方法。

R语言进行多重插补

输入为含有缺失值数据的数据库,输出可以得到五个完整数据库(默认为无可以自行调整),这五个数据都是通过对于原始数据中有缺失值数据进行插补之后生成的,因为插补是存在随机成分的,那么生成的数据集也是略有不同的

R语言进行多重插补流程图

通过mice()函数将原有含缺失值的数据集进行多重插补后得到五个(多个)完整数据集;

With函数是用于依次对生成的每个完整数据集应用统计模型;

然后使用pool函数将这些单独的分析结果整合为一组结果;

使用多重插补存在的问题

研究的因变量和变量之间不能插补。

例如:研究吸烟与脑猝的关系,吸烟(X)或脑猝(Y)缺失的人,要排除,不能使用多重插补进行数据填补。混杂关系可以插补。例如研究上者需要考虑BMI那么BMI缺失就可以通过使用多重插补进行数据填补。

插补的数据和原始的数据都需要做分析,如果结果一致,表明数据缺失对结果影响不大,可以理解为敏感性分析。

完整的多重插补

一个完整的多重插补应该包含三步:数据填补,计算,汇总。

数据填补:对每一个缺失数据填补m( m 1)次。每次填补将产生一个完全数据集,以此类推,共产生m个完全数据集。(m一般去20左右)

计算:对每一个完全数据集采用标准的完全数据分析方法进行分析。

汇总:将每次分析得到的结果进行综合,得到最终的统计判断。

主要的数据填补方法

根据数据缺失机制、模式以及变量类型,可分别采用回归、预测均数匹配( predictive mean matching, PMM )、趋势得分( propensity score, PS )、Logistic回归、判别分析以及马尔可夫链蒙特卡罗( Markov Chain Monte Carlo, MCMC) 等不同的方法进行填补

强调文本 强调文本

影响准确性的原因

要求数据分布符合多元正态分布假设(研究发现违背了也影响不大)。但还是会有一定的影响。

缺失率:研究表明当数据缺失率达到25%仍然可以得到精确的参数估计结果。换言之不能超过25%的数据缺失。

结语:以上就是首席CTO笔记为大家整理的关于大数据分析缺失率达到多少就无法做的全部内容了,感谢您花时间阅读本站内容,希望对您有所帮助,更多关于大数据没有数据分析、大数据分析缺失率达到多少就无法做的相关内容别忘了在本站进行查找喔。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/BigData/11608.html