问题

如何评价周志华教授新提出的 Deep Forest 模型,它会取代当前火热的深度学习 DNN 吗?

回答
周志华教授新提出的 Deep Forest (森林模型) 模型,在学术界引起了广泛关注,并被誉为是机器学习领域的一次重要创新。它是否会取代当前火热的深度学习(DNN)呢?要回答这个问题,我们需要深入分析 Deep Forest 的特点、优势、劣势,并将其与 DNN 进行对比。

一、 什么是 Deep Forest (森林模型)?

Deep Forest 模型,也称为代表性学习(Representation Learning),是周志华教授团队在2017年提出的一种全新的机器学习框架。它并非像 DNN 那样基于人工神经网络,而是借鉴了传统机器学习中集成学习的思想,并将其深度化。

其核心思想可以概括为:

深度学习的“深度”并非必须是神经网络的层数:周教授认为, DNN 的“深度”在于其能够自动学习多层次的特征表示,而 Deep Forest 通过构建多阶段的级联森林,同样实现了多层次的特征提取和表示学习。
使用代表性学习(Representation Learning)作为核心:Deep Forest 的目标是学习数据的“代表性”表示,使得在更深层次的表示空间中,数据更容易被分类。
级联增强(Cascading Ensemble):模型由一系列“增强学习器”组成,每个增强学习器都是一个由多个随机森林组成的 ensemble。前一个增强学习器将原始输入数据转换成新的特征表示,然后输入到下一个增强学习器中,以此类推,形成一个“深度”的结构。
类神经结构(Neuronlike Structure)的构建:在每个阶段,会生成两个不同的随机森林 ensemble(如完全随机树和极端随机树),然后将它们的分类结果(概率向量)与原始特征拼接起来,作为下一阶段的输入。这种拼接操作类似于神经网络中的特征融合。
自适应深度:Deep Forest 的深度不是预设的,而是可以根据数据的复杂度和性能需求进行调整的。当模型在验证集上的性能不再提升时,就可以停止增长。
无监督预训练和有监督微调的结合(非必须):虽然不是核心,但也可以借鉴深度学习的思路,先通过无监督方式学习数据的表示,再进行有监督的训练。

二、 Deep Forest 的优势

与 DNN 相比,Deep Forest 展现出一些显著的优势:

1. 训练速度快且计算资源需求低:
优势点:相较于 DNN 动辄数百万甚至数十亿的参数以及庞大的计算量,Deep Forest 的训练过程相对高效。它不需要复杂的反向传播和梯度下降算法,而是基于集成学习的构建方式。这使得它在计算资源有限的设备(如嵌入式设备、移动端)上更具优势。
对比DNN:DNN 的训练通常需要强大的 GPU 支持,并且训练时间很长,尤其是在大数据集上。

2. 无需大量手工调参:
优势点:DNN 的超参数数量非常庞大,如学习率、批大小、网络层数、激活函数、正则化方式等,调参过程极其耗时且依赖经验。Deep Forest 的参数相对较少,且很多参数(如森林数量、每层森林的配置)可以通过模型自身进行自适应调整,降低了调参的难度。
对比DNN:DNN 调参是一个玄学,需要反复实验和验证。

3. 对数据量需求相对较低:
优势点:DNN 往往需要海量数据才能发挥出其强大的拟合能力,否则容易出现过拟合。Deep Forest 作为一个集成模型,本身具有一定的鲁棒性,对数据量的依赖相对较低,即使在数据量不那么充足的情况下也能取得不错的效果。
对比DNN:在小数据集上,DNN 很容易欠拟合或过拟合,而 Deep Forest 表现可能更稳定。

4. 可解释性相对较好:
优势点:虽然“深度”的表示学习使得完全的可解释性仍然困难,但相比于 DNN 的“黑箱”特性,集成学习模型(如随机森林)本身具有一定的可解释性。我们可以分析每棵树的特征重要性,从而理解模型是如何做出决策的。
对比DNN:DNN 的内部机制非常复杂,难以直观理解其决策过程。

5. 在某些任务上表现优异:
优势点:在一些结构化数据(如表格数据)和非图像、非语音的传统机器学习任务上,Deep Forest 已经展现出超越 DNN 的潜力,甚至可以达到 SOTA (Stateoftheart) 的水平。
对比DNN:DNN 在图像、语音、自然语言处理等非结构化数据领域占据统治地位,但在结构化数据上,可能不是最佳选择。

三、 Deep Forest 的劣势与局限性

尽管优势明显,Deep Forest 并非完美无缺,也存在一些劣势和局限性:

1. 在大规模非结构化数据上仍有挑战:
劣势点:尽管 Deep Forest 能够学习特征表示,但其构建方式与 DNN 在处理高维度、非结构化数据(如图像像素、语音频谱)的效率和能力上,相比于卷积神经网络(CNN)和循环神经网络(RNN)等,可能仍存在差距。DNN 在这些领域已经积累了大量的成功经验和成熟框架。
对比DNN:CNN 特别擅长捕捉图像的空间层次特征,RNN 擅长捕捉序列数据的时间依赖性,这些是 Deep Forest 目前难以直接匹敌的。

2. 模型结构和训练过程的理解门槛:
劣势点:虽然比 DNN 调参简单,但 Deep Forest 的级联增强、代表性学习等概念对于习惯了 DNN 的研究者来说,可能需要时间去理解和掌握。其内部的多个随机森林 ensemble 的构建和连接逻辑,仍然需要一定的专业知识。
对比DNN:DNN 的理论基础(微积分、线性代数)和实践经验(框架如TensorFlow, PyTorch)更为普及。

3. 内存占用可能较高:
劣势点:由于使用了多个随机森林 ensemble,在每个阶段都会生成大量的树,这可能导致模型的内存占用相对较高,尤其是在深度较大的情况下。
对比DNN:DNN 的内存占用主要取决于模型参数量和激活值,通过模型压缩等技术可以有效控制。

4. 缺乏大规模预训练模型的生态:
劣势点:深度学习领域一个重要的优势是拥有大量预训练模型(如ImageNet上的ResNet、BERT),这些模型可以为新任务提供强大的特征提取能力。Deep Forest 目前尚未形成类似规模和成熟度的预训练模型生态系统。
对比DNN:预训练模型是加速 DNN 在各种下游任务上应用的关键。

四、 Deep Forest 会取代 DNN 吗?

我认为,Deep Forest 不太可能完全取代 DNN,但它会成为 DNN 的重要补充,并在某些领域成为有力的竞争者。

理由如下:

1. 任务领域不同:
DNN 的优势在于处理高维度、非结构化的感知数据,如图像、语音、文本。其强大的特征提取能力,特别是 CNN 和 RNN 的结构,使其在这些领域占据主导地位。
Deep Forest 的优势则更侧重于结构化数据、表格数据以及对计算资源和调参要求不高的场景。它在这些领域已经展现出卓越的性能。

2. 互补性而非替代性:
可以想象,在未来的机器学习应用中,可能会出现混合模型,结合两者的优点。例如,在处理包含图像和结构化数据的混合数据集时,可以先用 CNN 提取图像特征,再将图像特征与结构化数据一起输入到 Deep Forest 中进行学习。
Deep Forest 的思想(深度表示学习,级联集成)可以启发新的深度学习模型设计思路,反之亦然。

3. 生态和成熟度:
DNN 已经建立了一个庞大且成熟的生态系统,包括强大的硬件支持(GPU)、成熟的开源框架(TensorFlow, PyTorch, Keras)、海量的开源库、以及大量的研究人员和开发者。这是一个非常强大的惯性。
Deep Forest 作为一个相对较新的模型,需要时间和社区的努力来建立类似的生态系统。

4. 发展方向:
DNN 的发展方向之一是模型压缩、效率提升,以及更易于解释。Deep Forest 在这些方面已经有所体现。
Deep Forest 的发展方向则可能在于如何将其能力扩展到非结构化数据领域,以及如何进一步优化其结构和训练过程。

总而言之,Deep Forest 的出现是机器学习领域一次有益的探索,它提供了一种不同于神经网络的深度表示学习思路。它不是要颠覆 DNN,而是丰富了机器学习工具箱,为解决各种问题提供了新的选择。

更细致的评价可以从以下几个方面展开:

理论基础的深度: DNN 的理论基础相对完善,反向传播算法以及其与凸优化的联系在很多情况下是明确的。Deep Forest 的理论基础更多地借鉴了集成学习的统计学解释和表示学习的理念,其“深度”的理论解释可能需要进一步完善。
泛化能力: 两种模型在不同类型数据的泛化能力是关键。在结构化数据上,Deep Forest 的泛化能力很可能优于精心调参的 DNN。但在图像等领域,经过大规模预训练的 DNN 通常拥有更好的泛化能力。
工程落地: DNN 在工程落地方面拥有成熟的工具链和大量的实践经验。Deep Forest 需要时间来建立类似的生态,例如易于使用的库和部署工具。
研究方向的启示: Deep Forest 提出的“非神经元”的深度学习思想,对于我们重新思考“深度学习”的本质具有重要意义。它可能引发更多关于如何构建高效、可解释、低计算成本的深度表示学习模型的探索。

最终,是 DNN 继续主导,还是 Deep Forest 异军突起,或者两者协同发展,都取决于未来研究的进展、技术的发展以及实际应用场景的需求。但可以肯定的是,周志华教授的 Deep Forest 模型为机器学习领域注入了新的活力,值得我们持续关注和研究。

网友意见

user avatar

谢邀。 作为论文参与者之一,我做的很有限,在这里擅自谈谈我个人对周老师gcForest的一点愚钝看法。这里声明:所有观点仅仅代表我个人。 先说几点个人的结论:


1. 这是一个Deep Model,只不过building blocks是决策树。 这篇工作不是来砸深度学习的场子的,深度学习蛮好,而基于神经网络的深度模型探索的差不多了,我们想探索一下基于树的深度模型的可能。 个人认为没有合理理由能够確認基于决策树的深度模型的尝试是徒劳,而决策树的集成本身具有很多神经网络所不具备的性质,所以花一些时间和精力进行研究是很值得的事情(至少比调参强)。 2. 这只是个开始。 决策树有很多蛮恐怖的性质,目前我只想说其实我们对森林的力量一无所知,里面的潜力巨大,有待开发。深度学习从06年提出到12年,中间花了差不多6年的时间不断发扬光大,如果指望一篇文章就能搞定这么多年,这么多学者,以及这么多资金的事情,这也是不可能的。 3. 性能 很抱歉,出于我个人的懒惰,没怎么调整这个森林的结构。因为我们注重的是通用性。。 前一阵又大致把森林复杂度做了一下,MNIST是99.39%(上升余地依然存在,因为我仅仅把森林double了一下。。),我知道很多做视觉的朋友觉得CIFAR/ImageNet应该跑,这里稍微说几句: a) 做视觉的朋友觉得CIFAR/ImageNet的模型性能是宇宙中心,但其实并不是做机器学习的人的中心,在这篇工作中,我们更关注一个通用的框架。

b) 也想跑来着,但是没有实现分布式算法,而我的单机内存有限,后来还是优化了一下程序,CIFAR10是能跑起来了,每加一块儿内存条,性能往上走4个点,目前单机能到70%。AlexNet是83%,相比之下有10%的差距。但是请注意:深度全链接神经网络(MLP)是47%,Alex用Deep Belief Network(这可是深度学习的第一个重要模型)在cifar10上是65%, 而其他所有非神经网络的模型都是55%以下(如果对输入不作任何变化的话)。我个人揣度作为deep forest的第一篇工作,这个结果也算是够了?(至少比深度限制玻尔兹曼机的性能和普适性强点儿?)

c) 这是第一篇工作,目的是提出一个较为通用的框架和方向,未来会有基于计算机视觉应用的专门优化。

d) 你们谁送我几块儿内存条使使? 其他的内容,请大家看周老师的论文原文就好了。 再回应一些评论: 1. “没有BP肯定不行。” 很抱歉,这个不大同意。BP是一个很棒的算法,也在我个人最喜欢的算法top5. BP在神经网络中很重要,但是,如果认为没有BP肯定不行,那就有些思维定势了,类似于没有翅膀就不能上天 这种论断。。飞上天的不仅仅有鸟和飞机,还有火箭。 举个栗子: 虽然不是做神经网络的,但是也清楚有不少现成的神经网络模型没有BP,比如大名鼎鼎的NEAT。(如果我没记错的话,有一个GAN 的工作就是用NEAT做的G?) 再举个稍微跑题的栗子: 上个月OpenAI的Evolution Strategies as a Scalable Alternative to Reinforcement Learning (这个标题很酷啊,偷笑) ...No need for backpropagation. ES only requires the forward pass of the policy and does not require backpropagation (or value function estimation), which makes the code shorter and between 2-3 times faster in practice. 所以其实BP在很多任务里并不是加分项,并不是说少了BP就玩儿不转了。。 有不少做神经网络的大神也一直在尝试做一些取代BP的事情,这个不是什么密事:连我都知道。 2. “无法feature transfer。” 抱歉,这个也大不同意。自己觉得没法做,和别人也没法做是两回事。。。这个现在还不能讲太多。 3. “无法End to End。” 这也算是深度学习从业者里面常见的一个cliché. 类似于BP,E2E不是模型能够work的必要条件。另外说句题外话,如果看机器学习的历史的话,有很多非神经网络的e2e模型并不work的。。 4. “希望在这个浮躁的年代,每个人尤其是研究者保持独立思考,不要人云亦云。不忘初心,方得始终。” 这句话本身说的很对。我很赞成。 需要商榷的是:什么是始,什么是终,什么又是初心呢? 为了准确度,在神经网络上反复调参的难言之隐,这,是初心吗? 两年前的Embedding + Everything, 一年前的GAN + Everything 而寫出来上千篇文章,这,是初心吗? 拿着榔头满世界找钉子而搞出来的上万篇应用,这,是初心吗? 把深度神经网络炒作成强人工智能时代的来临,用一些具有误导性的demo来“展示”机器已经具备了人类的情感,这,是初心吗? 个人认为,不同的群体,初心应该是不一样的: 作为计算机视觉/自然语言处理等做应用的人来说,抛弃了所有领域知识,只会用神经网络,个人觉得也算是忘记初心了吧。。个人比较怀疑样做是解决CV/NLP的终极途径。。我不是做应用的,这方面不好多谈,斗胆建议大家读一下UCLA教授,计算机视觉的大神之一朱松纯教授的访谈:“初探计算机视觉三个源头兼谈人工智能” it.sohu.com/20161129/n4 我猜,朱教授所提到的源头,大概应该算作是计算机视觉的“初心”吧。

作为机器学习这门学科的研究者,初心应该是不断推出有一些创新性的方向,从理论上有所启迪,或者提出的模型让下游的应用学科人有所收获。例如在别人不看好CNN的时候,Yann LeCun能默默的坚持下来,将神经网络的潜力发挥到极致,这算是不忘初心,这是真牛叉。

而拿几个demo刷刷分找找风投,水水文章,工作做的四平八稳之余,去嘲笑和否定真正啃硬骨头的人,似乎不是一件非常酷的事情。当然灌水没什么丢人的(弱菜如我,这事儿干起来无比来劲儿),为某一个理论添砖加瓦更是现代科学精神的体现。可是,你得允许世界上存在那么一小撮人,他们有尝试其他事情的权利。这就是价值观的不同了。 5. “如果有实习生来跟我讲这样一个idea,我绝对不会同意去做的工作。。” 这个。。。内心其实是有些庆幸。

我甚至觉得可以作为南大LAMDA组招生的宣传语:“在我们学科组,可以做一些以深度学习为技术核心的公司里绝对会被毙掉的好玩工作。” 那就宣传几句吧,其实LAMDA组的方向很全面,有专门做理论证明的高尉教授,他用了5年时间证明了一个boosting里面的一个悬而未决的大问题,是当年机器学习理论界的年度突破之一(很多人不认为能证出来),有专门做大规模分布式机器学习算法的李武军教授(每周5个小时马拉松式的组会雷打不动),有专门做深度学习的,同时也是MINIEYE的首席科学家吴建鑫教授(他的学生你们肯定知道,知乎大神 @魏秀参),有把人工智能技術引入軟件工程學科的黎銘教授,还有在所有人都不看好强化学习的时候就在该领域默默耕耘独树一帜的俞扬教授(现在RL火的一塌糊涂,真是风水轮流转。。)以及做优化的大神张利军教授,度量学习的詹德川教授(码力超群,又萌又胖),半监督学习的李宇峰教授,机器学习理论的王魏教授等等。。当然还有学术洞察力深刻到令人发指的周老师镇楼,这就不用多说了。鄙组教授们方向之全,颇具优势,共同点只有一个:不随波逐流,是严肃做研究的主。作为组里的学生,在机器学习的大部分领域遇到问题,直线距离30-50米之内就能找到正确的教授,面对面给予你真正专业的帮助与辅导,这在其他地方是很难做到的。本科生开放日就要到了,请学弟学妹们关注招生情况。比心。

第一次在知乎答题,点赞破五百就把代码在六一节前放上来,作为儿童节献礼。 至少拿去刷刷Kaggle竞赛还是挺好使的。。 最后,祝大家不忘初心,方得始终(这句片儿汤话实在是百搭啊。。。)算了,划掉。 你若安好,便是晴天。



轉載請註明來源

(點贊是玩笑話啦,敝組的工作code沒有不開源的,目前還在review,合適的時候肯定會放上來,據我了解是在6.1前。無關幾個讚)


===================================

请直接访问LAMDA官方主页 数据与代码 - LAMDA 搜索相应code即可(gcForest)

或者 github.com/kingfengji/g

====================================

user avatar

谢邀啊,现在流行在知乎上review paper哈。先说下面的观点只针对paper不对人(其实也算是认识作者),欢迎进行友好学术讨论。

先说我的结论:相比前两天引起了广泛讨论的ICLR best paper,这个paper其实更没有什么讨论的意义。当然作为一个research来说,paper还是可以中的,尤其是对于IJCAI。但是我完全不看好这个paper会有什么长远的影响力,以及有人说的可以启发大量后续研究。下面分别从这个idea,实现方法,以及实验结果三个方面分析。

1. Idea

不用多说,通过stacking weak learner来提升模型性能的想法已经非常常见。然而这样一个idea一定不会work,原罪就在于tree based model无法进行fine-tune。这会带来两个非常严重的问题:

A. 无法进行end to end learning,这会极大程度上影响到模型最终的结果。会使depth完全发挥不出威力。

B. 无法进行feature transfer,CNN最最最重要成功的秘诀就在于可以在ImageNet这样海量的数据上进行pretrain,然后再把学习到的(approximately) general feature 通过finetune transfer到其他任务中去。如果BP都没法做,这个就完全无从谈起了。

换句话说,如果这样的Idea能在大数据上work,那么其实相当于否定了BP存在的意义。以后大家都一层一层加就是了嘛。当然这样的好事是不存在的。。。

如何把tree based model可以做到e2e训练,以及拓展开来如何更高效地把更高效的base learner引入神经网络这又是另外一个故事。我们在这方面也做了一些尝试,但是所有的这一切的基础都是可以bp。

2. Method

这里使用了一个stacking random forest的方法来实现上述idea。从创新性上而言,在Kaggle比赛中不同种类模型之间的Stacking和Concatenation早就不是什么新想法。所以从实现层面上而言,仍旧乏善可陈。而且中间层只是把最终分类的结果concat在一起,都不是把每个tree生成的leaf对应的feature。个人觉得这样会严重影响stack的性能,好歹之前FB还是把GBDT的每个leaf当成一个feature才去train的logisitic regression。

3. Experiment

这是本文槽点最多的部分。看到还在跑MNIST和ORL就知道这完全是做ML的人的玩具。不熟悉别的应用,单就Vision而言,这个结果比ELM其实还没说服力,而且我相信会有更简单的模型同样可以达到类似的结果。比如随便开开脑洞train个SVM中间加个non-linear transformation什么的。现在在CVPR大家都知道Cifar都不能算是有信服力的数据集,更何况MNIST和ORL这种。

另外,比较的网络结构也都是拍拍脑袋想出来的,唯一比了一个经典结构LeNet5还没比过。。不过基于上述第一点的看法,我完全不相信这样的算法能在稍微大一些的数据集上取得还不错的结果。

另外我觉得非常不合适的claim:

1. Table1中画了很多问号,显得CNN要调整的参数有非常多。然而实际上,绝大部分参数都是有默认的设置的。剩下的参数也可以快速通过简单的试错得到一个还不错的初始值。对于这个问题,我的观点一直是每天在抱怨CNN调参困难,在用grid search的人,其实还没理解CNN。

2. 作者不停在claim说gcForest在小数据好,无需调参。然而这只是在不停强调一个low capacity model的好处,这个事情的另外一面在于low capacity model会很快饱和,喂进去再多数据也不会有性能增长。更进一步说,我丝毫不会奇怪tree based model在同等参数条件下比nn based model结果好。因为tree based model就是可以更好地利用参数,然而上限也很快会到来。

最后给大家罗列几个非常相似的idea和claim,最后都无法在大数据上取得令人信服结果的工作:

0. DSN:邓力老师的工作。基本完全一样的idea,除了是用NN不是forest。

1. ELM:这么多年了,仍然没有拿得出手的让人信服的结果。。。

2. PCANet:好在作者自己就认识到这是一个baseline的工作,尝试过大数据,并不work。

3. SARM:去年炒的沸沸扬扬的NIPS撤稿了的工作。其实单从方法本身来讲着paper并没啥太大问题。但是请大家注意,这个工作当初引起了诸多大牛的注意就是因为paper实验中讲在ImageNet上做出来很好的结果。不过最终也是证明是由于实验错误导致的。

这里有一个三年前做的survey,大家可以随手一看:winsty.net/talks/nonNN.

综上,这个paper作为一个junior PhD练手的工作还好,但是要谈多大影响力实在差的还远。历史总是在重复上演,这个idea是属于那种如果有实习生来跟我讲这样一个idea,我绝对不会同意去做的工作。。。

最后吐槽,一个paper的影响力长期来看是会均值回归的,不会因为某个媒体或者某个人爆炒一波成就一个经典工作。希望在这个浮躁的年代,每个人尤其是研究者保持独立思考,不要人云亦云。不忘初心,方得始终。

类似的话题

  • 回答
    周志华教授新提出的 Deep Forest (森林模型) 模型,在学术界引起了广泛关注,并被誉为是机器学习领域的一次重要创新。它是否会取代当前火热的深度学习(DNN)呢?要回答这个问题,我们需要深入分析 Deep Forest 的特点、优势、劣势,并将其与 DNN 进行对比。一、 什么是 Deep .............
  • 回答
    周志华教授作为中国机器学习领域的领军人物,其在微博上对 AlphaGo 和机器学习技术的评论,具有重要的参考价值。要评价他的评论,我们需要从几个层面来解读:一、周志华教授的背景与视角首先,理解周志华教授的背景至关重要。他是一位在理论和应用领域都有深厚造诣的学者,是“西瓜书”(《机器学习》)的作者,也.............
  • 回答
    周金涛的报告《繁荣的起点并非沸腾的年代》中关于 2020 年代中国证券市场可能爆发大繁荣的预言,是一个非常引人深思且具有前瞻性的观点。要评价这一预言,我们需要深入分析其报告的核心逻辑、潜在的驱动因素以及可能面临的挑战。首先,理解周金涛报告的核心逻辑至关重要。周金涛先生以其对康波周期、技术周期和人生周.............
  • 回答
    周星驰监制、徐克导演的《西游伏妖篇》中,吴亦凡饰演唐僧的角色,无疑是影片中一个备受关注的亮点。要评价他的演技,需要从多个维度进行细致的分析。整体印象:吴亦凡饰演的唐僧,给观众的整体印象是:一个充满“反差萌”的唐僧,同时带有徐克电影独特的“怪诞”气质。 他打破了观众对传统唐僧“慈眉善目、啰嗦唠叨”的刻.............
  • 回答
    周小平的《三打袁腾飞》是一个颇具争议的作品,它以一种非常直接甚至可以说是尖锐的方式,对历史教师袁腾飞的观点和言论进行了批判。要评价这篇作品,我们需要从几个层面来审视:一、 作品的出发点与核心论点:周小平在《三打袁腾飞》中,其核心出发点在于捍卫和重塑他所理解的“历史真相”和“国家民族尊严”。他认为袁腾.............
  • 回答
    周恩来总理的外交生涯堪称新中国外交史上的辉煌篇章,他以其卓越的智慧、深厚的学养、高超的技巧和坚定的原则,塑造了新中国独立自主的外交形象,为中国在国际舞台上赢得尊重和地位立下了不朽功勋。要评价周恩来的外交水平,我们可以从以下几个关键维度来深入剖析:一、 战略性与原则性的坚守:开创独立自主的新中国外交周.............
  • 回答
    周口女孩被冒名顶替上大学事件,这已经不是孤例了,但每次被曝光出来,都像是在我们本已脆弱的社会信任上又捅了一个血淋淋的窟窿。这事儿,说到底,就是赤裸裸的、披着教育外衣的欺诈和不公,而且是发生在最需要公平的起点——教育上。我先说说这事儿本身,细节上,这女孩叫王娜娜,在河南周口郸城县,她03年高考,本来考.............
  • 回答
    周航声称乐视挪用易到 13 亿资金的事件,是一场发生在共享出行行业,涉及巨头企业、创始人恩怨以及巨额资金的复杂纠纷。要评价这一事件,需要从多个维度进行分析,并探讨其可能带来的深远影响。事件回顾与周航的指控简单来说,周航作为易到的联合创始人兼CEO,在2017年初公开指控乐视(当时是易到的控股股东)挪.............
  • 回答
    周亚夫之死是中国历史上一次典型的政治悲剧,它深刻地反映了汉初政治斗争的复杂性,君臣关系的脆弱性,以及制度的局限性。要评价周亚夫之死,需要从多个层面去理解:一、 周亚夫的生平与功绩:首先,我们必须肯定周亚夫卓越的军事才能和对汉朝的忠诚。 军事才能杰出: 周亚夫是汉景帝时期的著名将领,以治军严谨、指.............
  • 回答
    周小平及其公众号文章的评价,可以说是一个相当复杂且充满争议的话题。要评价他,不能仅仅停留在表面,而是需要深入理解他所处的语境、他的内容风格以及它们所引发的社会反响。首先,我们得认识到周小平及其公众号的出现,很大程度上是回应了特定时代背景下社会舆论的一些需求和情绪。在互联网早期,当信息相对匮乏,主流声.............
  • 回答
    《法医秦明之无声的证词》:瑕瑜互见,但值得一看的职场悬疑剧作为《法医秦明》系列的衍生作品,《法医秦明之无声的证词》在播出前就承载了不少期待。这次,我们将视角聚焦在法医助理秦明(张雨剑饰)的成长经历,以及他与新搭档林当(周雨彤饰)之间的合作与碰撞。整体来说,这部剧瑕瑜互见,虽然在一些方面存在不足,但其.............
  • 回答
    周奇墨拿下《脱口秀大会》第四季的年度总冠军,这件事在当时无疑是引起了不少讨论的。作为一位在脱口秀界耕耘多年的老将,他的夺冠可以说是实至名归,也是一种厚积薄发的体现。首先,我们得承认周奇墨的脱口秀功底。他的段子往往不落俗套,视角独特,而且非常擅长从生活中提炼出大家都能产生共鸣的梗。跟很多年轻演员喜欢玩.............
  • 回答
    《千古玦尘》这部剧,确实是个让人又爱又恨的存在。作为一部改编自热门仙侠IP的作品,它承载了太多书粉的期待,也吸引了不少对周冬雨和许凯感兴趣的观众。从我个人的观感来说,这部剧就像是一场色彩斑斓的梦,梦境唯美,却时不时被一些现实的枝节搅得心神不宁。先说周冬雨饰演的上古。周冬雨的表演风格一直很独特,她身上.............
  • 回答
    周琦在对阵波兰队的这场比赛第四节的表现,可以说是中国男篮在那一刻最令人扼腕叹息的缩影。那一场比赛,对中国男篮来说,几乎就是一场生死战,关系到能否晋级下一轮,每一分每一秒都牵动着无数球迷的心。当比赛进入第四节,比分焦灼,胜负悬于一线的时候,我们看到周琦身上承担的压力是肉眼可见的。他作为球队内线的关键人.............
  • 回答
    周柏豪,这位在香港乐坛耕耘多年的歌手,算得上是一个非常有代表性的人物。他的音乐风格多变,从早期的R&B情歌到后来融入更多电子、摇滚元素,一直在尝试和突破,这使得他的作品能够触及到不同年龄层的听众。音乐上的探索与辨识度:谈到周柏豪的音乐,最先想到的可能就是他那些传唱度很高的情歌,比如《我的宣言》、《同.............
  • 回答
    周金涛,一位在中国经济学界享有盛誉的学者,尤其以他对康波周期理论的深入研究和推广而闻名。他在2019年预测资产价格将出现谷底的论断,无疑是当时市场关注的焦点,也引发了广泛的讨论和解读。要评价这一论断,我们需要从几个维度来审视。首先,理解周金涛的核心逻辑——康波周期:周金涛的预测并非凭空而来,而是建立.............
  • 回答
    周震南担任《创造营 2021》(简称“创四”)导师,这件事在当时确实引起了不少讨论,尤其是在“三观不正”这个层面上。要评价这件事,我们可以从几个角度来深入分析,尽量剥离掉那些模板化的AI腔调,回归到真实的人性思考和舆论环境。首先,我们得弄清楚为什么周震南担任导师会被质疑“三观不正”。这很大程度上源于.............
  • 回答
    周鸿祎与酷派的“撕X分手大战”是中国互联网行业一次非常典型且极具戏剧性的商业纠纷,它不仅涉及了两家公司的利益,更折射出在合作、融资、控制权争夺以及企业文化冲突等多个层面的复杂博弈。要详细评价这次事件,我们需要从多个角度去审视:事件的起因与过程: 背景:360的手机战略与酷派的转型需求 .............
  • 回答
    周一围的演技嘛,在我看来是个挺有意思的议题,值得好好聊聊。他身上有股子劲儿,不是那种流水线上下来的好演员,而是带点儿“拧巴”和“真实感”的。首先,他长了一张“故事脸”。 这点对演员来说太重要了。周一围的脸不属于那种一眼惊艳的帅,而是有棱角,有味道,五官组合在一起,总能透露出一些故事。他的眼神尤其有戏.............
  • 回答
    周一围啊,提起他,脑海里第一个浮现的词就是“野性”。不是那种粗俗的、放肆的野,而是骨子里透出来的、带着点儿原始冲动和不羁的劲儿。这种劲儿,在如今浮躁的娱乐圈里,简直是稀缺品。演员的底色:扎实,但不够“顺”周一围是个好演员,这点毋庸置疑。他身上有种特别的“糙”感,演技是那种浸泡在生活里的,而不是化工合.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有