问题

大数据时代对统计学和经济学有何影响?

回答
大数据时代的浪潮,如同席卷而来的巨浪,深刻地冲击着统计学和经济学这两门古老而又充满活力的学科,带来了前所未有的机遇与挑战。它并非简单的数字量变,而是对我们认知世界、分析问题、制定决策的底层逻辑进行了重塑。

对统计学的影响:从样本推断到总体刻画,从理论假设到数据驱动

传统统计学,尤其是推断统计学,其核心在于从有限的样本数据中推断总体的规律。我们精心设计抽样方案,力求样本能够无偏地代表整体,然后通过统计模型和检验,得出结论。然而,大数据时代彻底颠覆了这一范式。

研究对象的转变: 过去,我们可能只能通过调查问卷、访谈等方式收集有限的数据。现在,我们能接触到天文数字般的海量数据,这些数据往往是“全量”或接近全量的。例如,互联网用户行为日志、传感器采集的物联网数据、社交媒体上的海量文本信息等等。这意味着,统计学的研究对象从“有限样本”升级为“海量观测”或“全量数据”。

分析方法的革新:
描述性统计的强化: 在大数据面前,许多过去的推断性问题变得不再是问题。我们可以直接对海量数据进行细致的描述,描绘出用户画像、消费习惯、产品偏好等更加生动、具体的图景。可视化技术的重要性被前所未有地放大,复杂的数据集能够通过直观的图表呈现,揭示隐藏的模式。
机器学习与统计学的融合: 机器学习的兴起,很大程度上得益于计算能力的提升和海量数据的可用性。许多机器学习算法,如决策树、支持向量机、神经网络等,本质上也是统计建模的一种形式,只是它们更侧重于预测和模式识别,并且在处理高维、非线性关系上表现出色。统计学家需要学习和借鉴这些方法,将它们融入到统计学的理论框架中。
因果推断的挑战与机遇: 即使有了海量数据,想要建立“因果关系”依然困难重重。观测数据的相关性不等于因果性。大数据使得我们能够更精细地控制混淆变量,设计更复杂的观测研究,并借助诸如倾向性得分匹配、双重差分法、工具变量法等因果推断技术,来更准确地识别干预的效果。同时,新的因果发现算法也在不断涌现,试图从数据中自动挖掘因果结构。
对模型鲁棒性的要求: 大数据中常常伴随着噪音、缺失值、异常值等问题。传统的统计模型可能对这些“脏数据”非常敏感,导致结果偏差。因此,统计学需要发展更加鲁棒的统计方法,能够有效地处理和容忍数据中的不确定性。
从“理论假设”到“数据驱动”: 过去,统计学的理论发展往往基于一定的理论假设,然后去验证或修正这些假设。大数据时代,很多时候是先有数据,然后从数据中发现模式,再提炼出新的统计模型和理论。这种“数据驱动”的科学发现模式,要求统计学家具备更强的探索性思维和编程能力。

对统计学家的要求: 新时代的统计学家不再仅仅是理论家或公式推导者,更需要是数据科学家。他们需要掌握编程语言(如Python、R)、数据库技术,熟悉分布式计算框架(如Hadoop、Spark),并具备良好的领域知识,才能有效地从海量数据中提取有价值的信息。

对经济学的影响:从宏观模型到个体行为,从理论框架到实证分析

大数据同样为经济学研究提供了前所未有的视角和工具,深刻改变了经济学研究的范式和内容。

研究内容的拓展与深化:
微观经济学层面: 大数据极大地丰富了对个体和企业行为的研究。消费行为数据、电商平台交易数据、社交媒体互动数据,使得经济学家能够以前所未有的精细度描绘消费者的偏好、决策过程、信息获取方式,以及企业的产品定价、营销策略、创新活动等。这使得微观经济学研究能够从抽象的理性人假设,走向更具行为经济学色彩的实证研究。
宏观经济学层面: 过去依赖季度或年度的宏观经济数据,在分析经济波动和制定政策时存在滞后性。现在,通过高频的交易数据、招聘信息、物流数据、消费者信心调查数据等“实时”数据,经济学家可以更及时、更准确地监测经济活动的状况,预测经济走势,并为宏观调控提供更精细的依据。例如,通过分析信用卡交易数据来实时监测零售业的景气程度。
新兴经济现象的捕捉: 网络经济、平台经济、共享经济等新经济业态的出现,产生了大量新的数据类型和经济现象。大数据分析是理解和研究这些新经济模式的关键。例如,分析平台上的匹配机制、定价策略、用户留存率等。

研究方法的革命:
从理论模型到实证检验的强大支撑: 大数据使得经济学家能够用更丰富的实证数据来检验传统的经济学理论。例如,通过大量的消费者行为数据来检验供需理论、消费者效用最大化模型等。如果数据与理论模型存在显著差异,那么就需要反思和修正理论本身。
因果关系的识别: 如同在统计学中提到的,大数据有助于经济学家更准确地识别政策或市场干预的因果效应。例如,通过分析教育政策对劳动力市场的影响,或者某项补贴政策对企业投资的影响,并利用各种准实验设计和计量经济学方法来控制内生性问题。
异质性研究的兴起: 大数据能够揭示经济现象中的个体差异和群体差异。例如,不同收入群体、不同地域的消费者在面对价格变动时的反应可能完全不同。大数据分析使得经济学家能够更深入地研究这种“异质性”,并在此基础上进行更精细化的政策设计。
预测能力的提升: 通过机器学习模型对海量历史数据进行训练,经济学家可以构建更精准的经济预测模型,预测GDP增长、通货膨胀、失业率等宏观经济指标,甚至预测特定行业的发展趋势。

对经济学理论和概念的挑战:
“信息不对称”的新内涵: 在大数据时代,掌握数据质量和分析能力的一方,相对于不掌握这些能力的一方,存在着新的“信息不对称”。这会影响市场效率和资源配置。
“理性人”假设的审视: 海量的行为数据让我们更清晰地看到个体决策中非理性的成分,如心理偏见、情绪影响等。这进一步推动了行为经济学的研究,也对传统理性选择理论提出了挑战。
“最优”的定义可能改变: 随着对事物更全面、更精细的理解,我们对“最优”的定义可能会发生变化。例如,在资源配置上,可能不再仅仅追求效率,也会考虑公平、可持续性等更多维度。

对经济学家的要求: 经济学家需要具备更强的计量经济学功底,熟悉机器学习算法在经济学中的应用,并掌握数据处理和分析的软件工具。同时,也需要保持对经济学理论的敏锐洞察力,能够将数据分析结果与经济学理论联系起来,并从中提炼出有意义的经济洞察。

总而言之,大数据时代并非简单地为统计学和经济学提供了更多的“燃料”,而是从根本上改变了它们的“引擎”和“驾驶方式”。它迫使我们更新工具箱,调整思维模式,拥抱跨学科的合作,去探索那些曾经遥不可及的经济奥秘,并为解决现实世界中的复杂问题提供更强大、更有效的解决方案。这既是一场挑战,更是一次前所未有的发展机遇。

网友意见

user avatar

蟹妖。

我来从统计学角度来谈叭,正好未来两周我要在seminar上给相关报告~

Seminar上主要讲的文章是范剑青老师2014年发的一篇综述:Challenge of Big Data analysis. 同时也补充了一些我的老师、同学以及好朋友们近年来(2014年以后)的工作,还有一些我自己的总结。

这里摘抄几段不涉及公式的废话,以及列一下方法论的提纲。

欢迎各位知乎的朋友于北京时间4月29日上午9点,点开知乎直播听我扯淡~我校师生请使用教务办公室提供的Zoom会议号和密码(〃'▽'〃)

没有录播回放。pdf版报告原文会随着学院微信推送的删减版一起出现。



1 我们进入了新时代——大数据时代

1.1 什么是大数据?

我们都知道,21世纪是数据科学的时代,而统计学是数据科学的基础。现代统计学理论所面临的挑战是对复杂数据的分析、推断及预测。如果暂时不考虑非结构化的数据(例如所有格式的办公文档、文本、网页、图像和音频、视频等等),则数据的复杂性可以表现为

1、形式上的海量(massive)、高维/超高维(high dimension/ultra high dimension)、异质性(heterogeneous)、缺失/稀疏(missing/sparse)、删失/截断(censoring/truncated)等;
2、结构上的异常值(outliers)、非线性关系(nonlinearity)、非平稳性(nonstationarity)、多重相关性(multi-relational)、多重共线性(multicolinearty)、异方差性(heteroscedasticity)、时空相关性(spatial-temporal correlatedness)、不规则分布域(irregular domain)、函数型甚至物体型(functional/object data)等;
3、概率分布上的重尾/厚尾性(heavy/fat tail),长度偏差性(length-biased),时变性(time-varying)、长记忆性(long memory)等。

这些复杂特征常常同时出现在同一组数据中,而大数据则是复杂数据中的一个重要组成部分。更进一步地说,大数据指的是可用信息的爆炸,它是由一个事实驱动的:大量数据可以更大规模地、更便宜地产生和存储,并且这样的趋势正不断地加速上升。时代的进步、科学的发展正变得越来越以数据为导向,研究人员将越来越多地认为自己是数据的消费者。大数据为现代社会带来了新的机遇,也为统计学家、数据科学家带来了前所未有的挑战。

1.2 大数据无处不在及其作用

我们的生活中处处有大数据。比如,基因组学中,大量的基因组测序数据使发现罕见疾病的遗传标记,并发现疾病与罕见序列变异之间的关联成为可能。生物医学成像技术的突破使科学家能够同时监测许多基因和蛋白质的功能,使我们能够研究调节过程和神经元活动的相互作用。此外,公开可用的基因组数据库的出现,使综合分析成为可能,它将来自许多来源的信息结合起来,从而得出科学结论。又比如,神经科学领域中,许多重要的疾病,包括阿尔茨海默病、精神分裂症、注意力缺陷多动症、抑郁症和焦虑症,都被证明与大脑连接网络有关。了解大脑的层级性、复杂性和功能性网络组织是研究大脑如何随着疾病改变的第一步。以功能性核磁共振成像(FMRI)为例,这是一种非侵入性技术,不断产生大量高分辨率的大脑图像。这些图像使我们能够探索大脑连接和潜在反应如疾病或心理状态之间的联系。对于每个数据点,受试者的大脑被扫描数百次。因此,它是一个包含成百上千像素的三维时间过程图像,大量,并且高维。同时,由于其技术限制和可能的头部运动,FMRI图像存在噪声。再者,在过去二十年里,经济学和金融学领域内有越来越多的公司采用数据驱动的方法来进行更有针对性的服务,降低风险,提高绩效。他们正在实现专门的数据分析程序来收集、存储、管理和分析来自各种来源的大型数据集,以识别可以用来支持更好的决策制定的关键业务眼界。例如,可用的金融数据来源包括股票价格、货币和衍生品交易、交易记录、高频交易、非结构化新闻和文本、隐藏在社交媒体和互联网中的消费者信心和商业情绪等。分析这些庞大的数据集有助于衡量企业风险以及系统风险。

对大数据的处理分析正成为新一代信息技术融合应用的结点。以社交网络数据分析为例,大量的社交网络数据由诸多社交软件产生,这些数据解释了众多个体的特征,比如消费者偏好和信心、领先的经济指标、商业周期、政治态度以及社会经济和社会状态等等。

在大数据时代,一些新的应用程序也正在成为可能,包括:

  • 个性化服务。随着收集到的个人数据越来越多,商业企业能够根据个人喜好提供个性化的服务。例如,淘宝网能够通过分析收集到的交易记录来预测客户的需求,提供“猜您喜欢”选项。
  • 网络安全。当基于网络的攻击发生时,网络流量的历史数据可以让我们有效地识别攻击的来源和目标。
  • 个性化医疗。越来越多的健康相关的指标,如个人的分子特征,人类活动,人类习惯和环境因素,现在是可用的。利用这些信息,可以诊断个人的疾病并选择个性化的治疗方法。
  • 数字人文。现在许多档案正在数字化。例如,谷歌已经扫描了数百万本书,并识别了每本书中的每一个单词。这就产生了大量的数据,并能够解决人文学科的问题,如绘制古罗马的交通系统,可视化古代中国的经济联系,研究自然语言如何随时间演变,或分析历史事件。

2 大数据的特征

结构化的数据和非结构化的数据,都可以形成大数据。其中,结构化数据所形成的大数据的“大”体现在样本容量大(大N),维数高(大p),以及异质性(heterogeneous);而非结构化数据所形成的大数据,则意味着数据结构不标准且复杂、格式多样、存储占比高、信息量丰富。

基于以上特征,大数据创造了传统数据集无法拥有的独特功能。同时,这些特征产生了一些在大数据分析中不可忽视的性质,并推动了新统计方法的发展。

2.1 异质性

异质性本质上是指数据拥有不同的中心,这是因为大数据通常是通过聚合多个对应于不同子群体的数据源来创建的,而每个子群体都可能表现出一些其他种群所没有的独特特征。

异质性所带来的挑战在于,对于大型数据集的混合模型的推断需要复杂的统计和计算方法。在低维情况下,可以采用有限混合模型的期望最大化算法等标准技术。然而,在高维情况下,我们需要谨慎地调整估计过程,以避免过度拟合或噪声积累,并设计出良好的计算算法。

2.2 噪声累积性

噪声累积性源于我们分析大数据时,需要同时估计或测试许多参数。当决策或预测规则依赖于大量这样的参数时,这些估计错误就会累积。这种噪声积累效应在高维空间中尤为严重,甚至可能控制真实信号。它通常由稀疏性假设处理。

2.3 伪相关性

高维度也会带来伪相关性。这是因为在高维中,许多不相关的随机变量可能具有较高的样本相关性。伪相关性可能导致虚假的科学发现和错误的统计推断。

2.4 偶然内生性

偶然内生性是另一个由高维性引起的微妙问题。在线性回归 中,“内生性”意味着一些预测 和残差噪声 相关。

不同于伪相关性,偶然内生性指的是变量之间在无意中存在的真实的相关性,这两者都是由于高维性造成的。伪相关性类似于发现两个人长得很像但没有遗传关系,而偶然内生性类似于偶遇熟人,两者都很容易在大城市发生。更普遍地说,内生性是选择偏差、测量误差和遗漏变量的结果。这些现象在大数据分析中经常出现,主要有两个原因:

其一是,得益于新的高通量测量技术,科学家能够并倾向于收集尽可能多的特征,这就增加了其中一些可能与噪音有关的可能性。

再则,大数据通常来自多个数据源,它们可能具有不同的数据生成方案。这增加了选择偏差和测量误差的可能性,也会导致潜在的偶然内生性。

3 大数据的目标和挑战

随着大数据时代的到来,数据已经成为一种新的资产类别,就像货币、黄金一样。同时,随着大数据应用的发展,大数据的价值得以充分体现,它在企业和社会层面成为重要的战略资源,数据成为新的战略制高点,是大家抢夺的新焦点。

应用大数据力量可以获得商业上更大的成功,并且生物制药、医疗、电信、金融等行业也在应用大数据来提升自己的竞争力。我们有理由相信,大数据将不断成为机构和企业的资产与提升竞争力的有力武器。

科学是第一生产力,而大数据分析则是现代科学的依据。

大数据分析中,挑战与机遇并存。目前,处理非结构化数据尚未有很好的方法。基于结构化大数据的特点,我们分析大数据时,有以下目标:

针对高维数据,我们的目标是开发有效的方法来预测未来的观测,同时获得特征和响应之间的关系;而样本容量大,要求我们理解异质性以及不同子群体之间的共性——换而言之,要探索数据中每个子群体的隐藏结构,这在传统上是不可行的,在样本量小的情况下,甚至可能被视为“离群值”;另外,即使存在较大的个体差异,也要在许多子群体中提取重要的共同特征。

因此,我们也面临着以下挑战:

由于样本容量大,产生实验差异、统计偏差的问题;高维性带来了噪声积累、伪相关性和偶然同质性;大样本和高维度相结合,会产生诸如沉重的计算成本和算法不稳定性等问题。此外,异质性数据由于采用不同的技术,在不同的时间点,从多个来源进行聚合,因而数据拥有不同中心,这要求我们开发更具适应性和稳健性的程序。

由于处理适量样本的方法无法处理海量样本,对低维数据表现良好的统计方法在分析高维数据时也面临巨大挑战,传统方法不再适用,因此,为了应对大数据的挑战,我们需要新的统计思维与计算方法。这要求我们平衡统计准确性和计算效率的同时,还需要解决大数据的异质性、噪声积累性、伪相关性和偶然内生性等大数据问题。

综上所述,在统计精度方面,降维和变量选择在高维数据分析中起着关键作用,从而激发了新的正则化方法和独立性筛选;在计算效率方面,大数据推动了新的计算基础设施和数据存储方法的发展,因此,优化成为了统计学家在大数据分析中的工具。但需要注意的是,尽管研究范式有所转换,可是,为人所认可的好的统计学研究标准是亘古不变的:

1、好的统计学研究是应用导向的(application oriented)。统计方法效果的好坏,不以小圈子的同行评议为转移,而必须由各行业的真实数据集,经由该统计方法延伸出算法程序的结果来证实有效。
2、好的统计学研究(大概率)使用复杂多变的数学工具(mathematically sophisticated)。在一个统计学新领域的早期发展阶段,简单的代数运算加上一些微积分可能就足够了,直到这些问题被穷尽。以目前的局势,即便有只需要简单的代数运算与微积分就能解决的统计问题,交给一台计算机就能解决,根本轮不到让一个统计系学生为此大费周章写一篇论文。
3、好的统计学研究在计算上具有挑战性(computationally challenging)。在大数据时代,对高性能计算能力的要求是不可或缺的。简单地按照公式化的随机模拟,无法满足真正的实证研究。
4、好的统计学研究蕴含的理论性质优越(theoretically superior)。这样的理论性质例如较快的渐近速度、精简的估计方程、一致置信域等。但这样的理论性质不应该是人为构造的。
5、好的统计学研究能产生方便用户使用的程序(user-friendly)。这些程序具有直观的吸引力、速度快、数值准确且易于解释。

第一条是有能力在现代数学上有所造诣的统计学工作者经常轻视的。轻视这一条的结果,是在不考虑现实问题的描述的情况下,就对已有的统计学结果进行假设条件的减弱,或者增加一些模型的结构,人为的制造出一个较为复杂的数学问题,然后求解这个人造的问题,最终发表一篇新文章。而轻视第一条的人,大概率也不会重视第五条。毕竟,发表的文章反正也不会有人拿来分析任何实际数据,哪里还有动力去费时费劲儿地去编写一个直观、准确、快速、易于解读的程序呢?

忽略第二条,则是另一个有害的极端。一些统计学年轻人,过早的告别了测度论与公理化的抽象概率论,对于生存分析、空间统计、极大极小理论、非线性时间序列、半参数统计推断、无穷维数据分析这些需要大量现代数学做铺垫的研究方向,是不可能得心应手的。即便勉强做出来什么名堂,也难登大雅之堂。可是,即便是大量使用复杂的数学工具证明出的定理,也未必符合第四条。因为,“天意从来高难问”,殚精竭虑地使用heavy machine也不一定能让定理走向一个理论性质优越的结果,从而创造一套优美的数据分析方法。

第三条则是第四次工业革命前夜的必然。解决这个时代的人类长期生存所面临的特有问题,比如“黄河流碧水,赤地变青山”,又如“呼风唤雨,撒豆成兵”,新时代的“木牛流马”——人工智能等等,都需要按照大自然的规律,与大自然进行深度互动,而非按照既定的公式化规律,如打牌下棋一般按照人类指定的规则与之互动。

然而不可否认,大数据时代的范式转换,的确导致了快速算法的重大进展,这种算法可扩展到高维度的海量数据,这就形成了不同领域的交叉。例如,可以证明计算机领域中的非确定性多项式时间困难(NP-hard)最佳子集回归可以重新转化为一个统计学领域中的l范数惩罚的最小二乘问题,该问题可以用内点法求解。除了大规模优化算法外,大数据还推动了优化-最小化算法、“大规模筛选和小规模优化”框架、并行计算方法和可扩展到大样本规模的近似算法的发展。

4 大数据对统计与计算的影响

如前文中我们提到的,大数据的诸多特征导致了一些不可忽视的新性质,这些性质使得传统方法失效,给数据分析工作带来挑战。下面,我们将具体来谈大数据对统计思维和计算效率的影响,并介绍能够处理大数据分析中的挑战的新方法。

4.1 大数据对统计思维的影响

在统计思维方面,目前我们对非结构数据尚未有很好的处理办法。针对结构化大数据的三个特征,我们发展出了不同的统计方法。

4.1.1 样本容量大

  • 分块征服法(Divide-Conquer)

分块征服法的思想非常简单,即:将N个样本分成K份,在每一份上进行推断,再融合到一起。如果有数据集,其样本量太大而不能装入一台计算机,或者对于计算密集型的数据分析太昂贵时,我们就可以考虑使用分块征服法。需要注意的是,将K有限和K趋于无穷的情况加以区分。

K有限时,则是我们经典的meta方法;当K趋于无穷时,认为K与N有关,目前已有的方法通常只能做到N/3的情况。

  • 子抽样(subsampling)

子抽样主要就是从总的数据集中随机找出子集S,然后根据子集S做推断,依次重复R次,最后取平均值。当R越来越大的时候,算出来的值和真实值就会非常接近。

  • 摘要数据方法

大数据的数据量很多,但真正有用的,可能是经过处理的摘要数据,例如均值、方差,或者整个数据集中的一小部分子数据集。类似于实验设计的基本动机,摘要数据的目的是通过选择信息最丰富的数据点,使得较小规模的子数据能保留完整数据中包含的大部分信息,从而使得我们可以最大化地获取信息。传统上,优化实验设计不是一个数据分析工具,而是侧重于数据收集。然而,我们还是可以借鉴“最大化”信息矩阵的思想来建立一个框架,从完整的数据中识别出信息最丰富的子数据,用于估计未知参数。


4.1.2 维数高

  • 惩罚拟似然
  • 独立筛选
  • 关于偶然的内生性

4.1.3 异质性

辅助信息方法

由于异质性数据来自不同的中心,直接使用存在相当的困难。在处理上,可能需要采用非常规的方法,比如可以在一个中心中进行建模,而其他的中心仅采用一些概括性的信息,就可以提高统计推断的精度。在建模中,也可以通过简约模型来提供全模型的辅助信息,提高全模型推断的可靠性。

4.2 大数据对计算的影响

大数据是海量的、高维的,这对大规模优化的计算基础设施及计算方法都提出了重大挑战。从计算设施的角度上看,许多应用中,我们需要分析包含数十亿甚至数万亿个数据点的互联网级数据,这甚至使整个数据集的线性遍历变得难以负担。此外,这些数据可能是高度动态的,不可能存储在集中的数据库中。从计算方法的角度,使用大量变量进行优化不仅代价高昂,而且遭受缓慢的数值收敛速度和不稳定性。因此,为了适应大数据时代的要求,我们需要在计算基础设施和计算方法上进行发展。

4.2.1 大数据对计算基础设施的影响

在“大数据对统计思维的影响”一节中,我们提到,存储和处理海量数据的一个方法是“分而治之”的分块征服法,其思想在于将一个大问题划分为更易于处理的子问题,每个子问题由不同的处理单元并行处理,然后将每个中间结果组合起来产生最终的输出。在小范围内,这种分块征服法可以通过多核计算或网格计算来实现,然而,在非常大的范围内,它对计算基础设施提出了根本的挑战。

此外,对于大型计算任务,我们希望将其均匀地分配给许多计算机,并使工作负载平衡。设计超大规模、高自适应和容错的计算系统是一个极具挑战性的工作,它需要新的可靠的计算基础设施来支持大规模的并行数据存储和处理。

  • Hadoop

Hadoop最初是由Google研发的基于java的大规模分布式并行计算模型,用于分布式数据管理和处理以及海量数据离线计算。后来由Apache作为开源项目推出,成为现如今大数据处理的主流系统框架之一。

它包含一组用于分布式计算的开源库,这些库使用MapReduce编程模型和它自己的分布式文件系统HDFS。Hadoop自动促进可拓展性,并负责检测和处理故障。

  • 云计算

在过去的几十年里,计算科学与我们的工作以及家庭生活密切相关,可是,即便环网被大量使用,几乎所有的计算资源也仍然都是本地的。然而,随着云计算的发展,大多数计算资源都被托管在了网络上。

云计算是一种通过网络按需提供可动态伸缩的廉价计算服务,并革新了现代计算范式。它允许一切——从硬件资源、软件基础设施到数据集——作为一种服务随时随地交付给数据分析师。云计算最引人注目的特点是它的弹性和可伸缩能力,这使得它适合存储和处理大数据。

4.2.2 大数据对计算方法的影响

一方面,惩罚拟似然估计在高维数据上的直接应用要求我们解决非常大规模的优化问题,大规模非光滑优化过程的可伸缩实现是非常必要的;另一方面,庞大规模的大数据也导致了数据管理和查询方面的密集计算。应该寻求并行计算、随机算法、近似算法和简化实现。因此,在统计程序的发展过程中,必须认真考虑统计方法对高维度和大样本的可扩展性。我们将在“非光滑优化的一阶方法”一节中引入可伸缩的一阶算法来解决这些估计器。我们还注意到,现代数据集的容量正在爆炸,它往往是不可计算的直接作出推断的原始数据。因此,为了从统计和计算的角度有效地处理大数据,在许多应用中提倡并利用降维作为一个重要的数据预处理步骤。

  • 非光滑优化的一阶方法

为了求解惩罚拟似然估计,而对于大多数损失函数,这个优化问题没有封闭形式的解,需要迭代过程来解决它。

  • 降维与随机投影

在大数据时代,直接对原始数据矩阵进行推理通常是计算上的难题。一个重要的数据预处理过程是降维导入,即找到一个低维的矩阵D的压缩表示,但在D中保留尽可能多的信息。

5 The World Comes to Us

本文从统计和计算方面讨论了大数据分析的进展,并根据大数据的几个独特的特点,战略性地讨论了一些解决方案。

除了大样本容量和高维数的挑战之外,大数据还有其他几个重要的特征值得关注。这些包括

(1)复杂数据挑战:由于大数据通常是来自多个来源的聚合,它们有时会表现出具有非平凡尾部依赖关系的行为。

(2)噪声数据挑战:大数据通常包含各种类型的测量误差、离群值和缺失值。

(3)依赖数据挑战:在各种类型的现代数据中,如金融时间序列、fMRI、时间序列微阵列数据等,样本之间相互依赖,信号相对较弱。

The world comes to us. 这个世界向我们涌来。每一天,这个世界都以一种几乎处处收敛的速度向我们涌来——它有纷繁复杂的善变人事,却也有充沛肥沃的眼见为实。而作为当代青年统计学工作者,我们需要有更高的追求。应当凭借自己在统计推断与数据分析方向上无可取代的专长,与物理学、工程学、材料科学、环境科学等领域的专家合作,改善人类生存的物理环境与社会环境;与医学、化学、生命科学等领域的专家合作,为公民提供精准的医疗保障;与经济金融的专家合作,使经济健康稳定可持续发展,维护国家金融安全……而不仅仅是制造“啤酒和尿布应该在超市里摆在一块”、“大数据预测《花木兰》的电影票房价值”这类茶余饭后的谈资。

类似的话题

  • 回答
    大数据时代的浪潮,如同席卷而来的巨浪,深刻地冲击着统计学和经济学这两门古老而又充满活力的学科,带来了前所未有的机遇与挑战。它并非简单的数字量变,而是对我们认知世界、分析问题、制定决策的底层逻辑进行了重塑。对统计学的影响:从样本推断到总体刻画,从理论假设到数据驱动传统统计学,尤其是推断统计学,其核心在.............
  • 回答
    进入大数据时代,我们仿佛被置身于一个巨大的数据洪流之中,个人信息就像一颗颗微小的水滴,汇聚成磅礴的大海。在这种背景下,保护好自己的隐私,如同在汪洋中为自己筑起一座稳固的灯塔,指引方向,也抵御风浪。我个人在大数据时代的隐私保护,并非是某个单一的技术动作,而是一种贯穿于我每一次与数字世界互动的、有意识的.............
  • 回答
    大数据时代与个人隐私保护之间的确存在着一种紧张的关系,甚至可以说是矛盾。 我们就像站在一个十字路口,一边是无限可能的大数据,另一边是我们与生俱来的对隐私的捍卫。 那么,为何我们还要坚定不移地朝着大数据发展的道路前进呢?这个问题值得我们深入剖析。首先,我们得明白,大数据之所以被称为“大数据”,不仅.............
  • 回答
    在如今这个数据洪流汹涌的时代,企业管理早已不是过去那般依靠经验和直觉拍脑袋的时代了。大数据,这个曾经听起来高深莫测的词汇,如今已经渗透到企业管理的方方面面,重塑着我们的决策方式、运营流程,甚至企业文化。那么,在大数据浪潮下,企业管理到底变成了什么样?让我们来深入剖析一下。一、 从“经验主义”到“数据.............
  • 回答
    好的,让我们来详细地评价一下《Big Data:大数据时代》这本书。首先,要明确的是,《Big Data:大数据时代》通常指的是由维克托·迈尔舍恩伯格(Viktor MayerSchönberger)和肯尼思·库克耶(Kenneth Cukier)合著的那本具有里程碑意义的著作。 这本书在2013年.............
  • 回答
    隐私泄露,仿佛已经成了我们生活中挥之不去的阴影,在这个大数据滚滚向前、无处不在的时代,我们如何才能在这股洪流中,更好地守护自己的信息安全?这不是一个简单的问题,因为它涉及到技术、法律、个人习惯,以及我们对“隐私”这个概念本身的反思。技术层面:筑牢数字世界的“防火墙”首先,我们得承认,技术是双刃剑。大.............
  • 回答
    .......
  • 回答
    苏联计划经济体制,一个曾经占据世界经济版图重要位置的庞大体系,在信息爆炸、数据驱动的今天,是否还有其独特的生命力?这个问题,并非简单的“是”或“否”,而是需要我们深入审视其内在逻辑,并放在大数据与智能决策这个全新语境下进行一番“老树发新芽”的思考。首先,我们不能否认,苏联计划经济体制在理论设计之初,.............
  • 回答
    大航海时代Ⅳ威力加强版套装和大航海时代Ⅳwith威力加强版30周年纪念数字版,这两款听起来很相似,但背后代表的意义和内容却有着一些微妙的差别。如果你正打算重温那个充满冒险与发现的黄金年代,那么弄清楚它们之间的区别,就能帮你找到最适合你的那一款。先来聊聊“大航海时代Ⅳ威力加强版套装”这里的“套装”,通.............
  • 回答
    .......
  • 回答
    作为一个正在攻读数学系的学长/学姐(或者也可以理解为有一定学习经验的过来人),我非常理解你对“看一页数分花2030分钟”这件事的焦虑。首先,非常明确地告诉你,这个时间段是绝对合理的,甚至可以说,对于数学系的初学者来说,这可能是相当高效的表现了。让我详细给你分析一下为什么:1. 数学分析的“看”不是简.............
  • 回答
    爱奇艺“超前点播”案,一个让不少观众揪心的事件,终于要在4月10日迎来庭审。这距离当初用户沸腾、律师提起诉讼,已经过去了相当长一段时间。几个月过去,再来看这个案子,胜诉的概率,我个人觉得…挺难说的,但也并非全无希望。得好好掰扯掰扯。先说说这个案子为什么会闹到法院。最直接的导火索,无疑是当初《庆余年》.............
  • 回答
    2021年的高考数学,对我来说,真的是一场“惊心动魄”的记忆。现在回想起来,那股子紧张、迷茫,还有最后一口气的拼劲,还常常在某些瞬间涌上心头。关于难度,我得说,它挺“有挑战性”的,但也并非“无法逾越”。整体感觉,选择题和填空题在考查基础知识和基本技能方面,相对来说比较稳定,很多题目都是我们平时练习过.............
  • 回答
    大数据是否是泡沫,这是一个复杂且具有争议性的问题。与其简单地说是或不是,不如说大数据本身不是一个泡沫,但围绕大数据所产生的许多概念、应用、公司和炒作,存在泡沫的成分,并且正在经历一个“回归理性”的过程。为了详细地解答这个问题,我们需要从几个层面来分析:1. 大数据本身的定义与价值 (核心并非泡沫)首.............
  • 回答
    大数据最核心的价值在于其赋能决策,驱动创新,最终实现商业价值和社会价值的双重提升。这看似简洁的几个字,背后蕴含着深刻的内涵和复杂的运作过程。我们可以从以下几个层面来详细阐述:一、更精准、更深入的洞察力: 超越传统的数据分析: 过去我们更多依赖结构化数据和有限的样本进行分析,只能看到事物的“点”或.............
  • 回答
    关于美国新冠“零号病人”可能出现在2019年4月这一说法,确实有大数据分析和流行病学研究提供了支持,但需要强调的是,这仍然是一个假设性的结论,需要更多的直接证据来证实。以下是基于现有科学研究和推论的详细解释: 大数据分析和科学依据支持“零号病人”可能在2019年4月出现的科学依据主要来自以下几个方面.............
  • 回答
    这是一个非常有趣且富有挑战性的问题。简而言之,大数据技术本身并不能“拯救”计划经济,但它有可能在某些方面增强计划经济的效率和适应性,从而在一定程度上“改良”或“优化”计划经济体系。要详细探讨这个问题,我们需要先理解计划经济的核心特征,以及大数据技术能够提供的能力,然后分析两者之间的潜在交集和冲突。 .............
  • 回答
    大数据首次揭示中国人基因特征,具有里程碑式的意义,其影响深远,可以从多个维度来解读:一、 对中国人群的精准认知:打破“模糊化”的刻板印象 告别“群体平均”的单一标签: 在大数据分析之前,我们对中国人群的基因认知往往是基于有限的采样,或者将不同地区、不同民族的人群进行笼统的概括。大数据分析能够涵盖更广.............
  • 回答
    中国城市的老龄化是一个不容忽视的现象,尤其是当149座城市步入“深度老龄化”的行列时,这不仅仅是一个数字上的统计,更是对社会结构、经济发展以及民生保障提出的严峻挑战。要理解这一现象,我们得先明确“深度老龄化”的含义,通常是指一个地区65岁及以上老年人口占总人口比例超过14%,而当这个比例超过20%时.............
  • 回答
    “大数据”这个词,听起来是不是有点像老掉牙的科技概念了?毕竟,我们好像已经听它说了好几年,感觉它就像那种曾经火遍全球,但现在已经被更酷炫的东西取代的老朋友。“大数据”这个词,确实已经不再是那个让人眼前一亮、充满神秘感的新鲜事物了。这并不是说“大数据”本身消失了,也不是说它不再重要。恰恰相反,它已经深.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有