百科问答小站 logo
百科问答小站 font logo



人工智能是不是走错了方向? 第1页

  

user avatar   rewrgf 网友的相关建议: 
      

我觉得没走错,现在用的都是基于attention的transformer模型,attention非常符合人类认知,也不包含卷积或者傅里叶变换这些东西。至于模型训练,查漏补缺,有错改之无则加勉,人类日常其实也在做。

3:小孩子不需要喂很多数据,看两三次就能认识什么是苹果,什么是橘子

建议看一下GPT3 的文章,他也是只让模型看两三次,就可以做出下游任务。


user avatar   clyce 网友的相关建议: 
      

要回答题主的问题,我们首先要弄明白题主到底想问什么。

从问题结合描述来看,题主的疑问至少包含如下五层疑惑:

  1. 当前人工智能的运算结构和人类的大脑结构是否是一致/同构的?
  2. 机器的学习过程一定是被动的吗?
  3. 是否只有和人类大脑一致/同构的内部结构,才能获得一致或相似的外在表现?
  4. 人工智能的正确方向和目的是什么?
  5. 人工智能的方向走错了吗?

同时,鉴于题主的描述,我在此粗略地将题中的“人工智能”替换为“我们当前采纳的深度学习”


在回答这些问题之前,首先需要指出的是,人的判断应当基于对事实的观察,而非简单的“我相信”或者“我不信”。

另外需要声明的是,我个人的专精领域是强化学习和计算机视觉,对于下文中提到的生物学、神经科学等领域的描述不一定能够做到完全准确,还望指出与讨论。


人类目前的”深度学习“在工作原理上与人脑有多少相似

接下来我们从第一层谈起,围绕题主的问题描述进行当前人工智能在原理上和人脑的关系。

我不信大脑每天都在大量的傅里叶变换,来处理视觉和声音数据。

题主的第一条陈述包含了如下三个可讨论的议题:

  1. 人工智能运用傅里叶变换的场景中,傅里叶变换的目的是什么
  2. 人类意识中是否包含了为相同目的而设立的处理机制
  3. 人脑及其“周边结构中”中是否具备显式进行傅里叶变换计算的部分

对于机器系统中运用傅里叶变换的目的,不必做太多的解释。大多数情况下是对应的信号在频域空间下更容易处理,或者展现出其在时域空间下难以提取的特征。对于人工智能系统而言,傅里叶变换往往并非在系统中作为可学习部分,而是作为数据预处理的部分而存在。

那么反观人类意识,对于信号在频域空间的处理,其最明显的例子就是对音频信号的处理了。这一点可以从我们主观对于音高的感受去验证,而在解剖的层面上,同样可以找到对应的结构。这一结构存在于我们的内耳而非大脑中——这一点同样和在“人工智能系统中”傅里叶变换部分常常出现在数据的预处理而非可学习结构中保持一致——这一结构即是内耳的基底膜。不精确地来讲,基底膜的两端松紧程度不同,导致基底膜的不同位置对不同的频率有其响应,而遍布基底膜的毛细胞则将膜各部分的振动反馈至听神经。从这个角度讲,基底膜上的每个毛细胞反馈近似等价于傅里叶变换中的一个基。于是我们上面的三个议题都得到了解答:构建人类意识的生物学结构中确实存在与傅里叶变换目的相同的、显式将信号从时域空间转换为频域空间的结构

另外,人类大脑大部分区域的神经元链接,是脉冲激活模式,人工神经网络中对应的概念为Spiking Neural Network (SNN)。在这种链接中,一个神经元的激活不仅仅取决于其接受的脉冲强度,同时也取决于脉冲的间隔和数量。我并非SNN或神经科学方面的专家,但是这里我可以提出一种观点,即Spiking Neural Network这样的激活模式天然地encode了部分频域空间上的信息。如此观点被证实成立,那么很可能意味着人脑在可学习的部分中,其隐空间同样在处理频域空间上的信息。


我不信大脑每天都在大量的模型训练或卷积,来深度学习认识一个东西

这里又是两个独立的议题:

  1. 大脑是否每天都在进行大量的模型训练
  2. 大脑中是否存在卷积单元

对于1,我们从三方面看:

A: 大脑是否在每天持续地接受信息,是的。

B: 大脑是否在每天对这些信息进行学习,是的。

C: 大脑是否有专门进行训练而不接受信息的时间。在我了解的范畴内,根据现有的观察和印证,人类的睡眠深-浅睡眠周期变化中,最主要的作用之一就是短期记忆向长期记忆的迁移、记忆的反混淆,以及具象概念向抽象概念的总结。

对于A与B,在现有的研究领域有一个类似的议题叫做Continual Learning,此处就不展开了。题主大可以快速阅读一些相应的文献找到其中的对照。

对于2,大脑的视觉皮层中确实存在类似卷积的结构早在1962年,D. H. Hubel和T. N. Wiesel就发现了在猫的视觉皮层中,特定的一组神经元仅对特定角度的线条产生反应。进一步的研究显示这些被称为Columns的结构存在特殊的组织性以及独特的感受野分布。下面这张图是V1视觉皮层的一张示意图:

如图所示,V1皮层中,神经细胞以左眼-右眼不断交错排列。每个细胞拥有自己的感受野且每一组细胞只对特定的方向敏感,同一个Columns内的不同细胞则对该方向的不同尺寸敏感。配合跨Columns的long range connection,进一步组织出对不同曲率曲线敏感的神经信号。


小孩子不需要喂很多数据,看两三次就能认识什么是苹果,什么是橘子 (虽然不理解为什么是)。

这一句让我去看了一眼问题的发布时间,是在2021年2月。那么可以肯定的是题主对于深度学习的认知依旧停留在若干年前。这里我并不是想说现在的深度学习不用喂很多数据,而是现有的“当红”研究领域中,存在专门针对这类问题的研究,即Few-shot/One-shot Learning及Zero-shot Learning. 题主如果有兴趣和耐心,可以对其中的内容进行了解。

以最近被广泛研究的Contrastive Learning为例,其核心理念在于让输入数据在神经网络中的表示距离随数据的异同进行变化。对于源自相同数据,或应当做出相同判断的数据,让其表示距离尽量接近,而反之则尽量远离。在这种情况下,神经网络对于数据输出的表示向量隐式包含了对于其目标信息的预测。对于新类别的数据,神经网络也将倾向于输出不同于原有类别的表示向量。这一在表示空间中近似于kNN的做法,使得神经网络对于后续新类别数据无需大量数据的监督训练,也能给出较好的预测。

在Few-shot/One-shot/Zero-shot领域里,较为著名的、有所说服力的,应用级别的案例即是OpenAI近期发布的两大怪兽GPT-3和DALL-E,这两个网络在充分进行预训练的基础之上,已经达到了非常显著的“举一反三”的学习效果。

有些人可能会争论说,上文中指出的方案和案例,都包含了长期大量的预训练。而人脑则不需要这样的预训练。我个人认为这样的观点是错误的,和神经网络等价的预训练可以发生在:

  1. 人类自身长期的进化进程中:预训练的意义在于集成大量的Prior并提供一个良好的初始参数。这一过程是由梯度传播达成的,还是通过进化搜索完成的,并不重要。
  2. 婴儿时期对世界反复的交互观察中:婴儿时期的人类会以交互的方式对世界的运行规律进行大量的观察和总结(unsupervised learning)

机器的学习方式是被动的吗?

至此,我一一讨论(批驳)了楼主的前三条问题描述,接下来我们进入第二层:机器的学习方式一定是被动的吗?

结合题主的核心问题(人工智能是不是走错了方向),这一问题的展开中还包含两个潜藏问题:学习主动性是智能的必要条件吗?什么样的学习才叫主动的学习?

对于第一个潜藏问题,我认为是一个哲学意义上的Open Question,它直指智能的核心定义。在此我不直接抛出结论,而是通过对第二个潜藏问题的讨论来引发思考。什么样的学习才叫主动的学习?

直觉上来说,我们假设具备主动性的学习是自发地去探索、分析、总结这个世界,并且在环境对自身的反馈中调整自身的策略的过程。

如果以上面的话来定义主动性的学习,那么无论是给AI一个爬虫去对Web上的数据进行主动获取,并进行无监督学习,还是让一个Agent在特定或开放的环境中进行强化学习,都可以认为是符合上面定义的。

这里有人可能会反驳说,一个爬虫对Web上的数据进行获取的行为是由程序设定好的,而对其进行的无监督学习也是有一定标准的(比如一个潜在的能量函数)。而对于强化学习,则是一个由奖励函数驱动的学习过程。对于这样的观点,我们可以如此思考:当我们认为人类在主动获取知识的时候,我们的“主动学习”过程,真的是无外部目标、无内在机制、无因素驱动的吗?答案显然是否定的。我们可能会认为我们“自发地”想要完成一件事情——比如写一篇知乎答案。而这种“自发”本质上是由一系列的心态驱动的,比如渴望获得认同,渴望拓宽眼界,渴望增强交流。这些心态的自然产生是我们进化的结果——对于群居习性的人类,更强的认同、更频繁的交流和更多的知识意味着生存概率的提高,所以这些心态同样产生自一系列设定好的”程序“——被我们称之为本能的,以”活下去“为最终目的的复杂程序。而为了构建这样一套程序,我们人类也在大脑内部构建起了复杂的内在机制,比如多巴胺奖励机制。那么同样的,如果存在一个方法去修改这一内在机制,或者单纯地修改我们的”奖励函数“,这个方法就可以几乎彻底地毁掉我们原有的思维、行为方式 —— 某些化学物质在此处便也充当了”黑客攻击“的角色。

另外一说,如果我们真的将主动性的学习定义为不存在任务目标的学习,那么这里就会遇到一个inductive bias的问题。事实上无论哪种学习模式,任务目标即是该学习系统中最核心的Inductive Bias——它包含了“我在学习的东西是有意义的”这样一个假设,以及“意义在哪里”的相关信息。在任意情况下,不包含任何inductive bias的系统是不具备学习能力的。人类智能的inductive bias同样明显:从行为学习的角度来看,reward shaping和生存概率直接相关;而对于视觉、听觉等感官信号处理等方面,上文也已经给出了详尽的论述。

另外,在机器学习领域中,也确实存在叫做主动学习(Active Learning)的研究领域。这个领域的目的在于使用尽量少的数据标注,得到尽量准确的结果。一种非常普遍的方式为,以一套机制,让一个系统去寻找性价比最高的学习数据。比如在一个分类问题中,一个主动学习系统往往不需要对所有数据进行标注,而是找到”标注后可能信息量最大的数据“,并请求对这些数据进行标注。在学习了这些”典型数据“后,模型的分类准确率即大幅提升。这一过程相似于我们在学校中学习时,有意地去寻找典型例题,以便加深理解。

回到题主的问题,在题主的问题描述4中,有非常重要的一段话:

人工智能学习某一方向只是受控

这句话是错的吗,并不尽然。人工智能的学习确实大多有着明确的外在目的、内在机制,和由目的驱动的频繁调优。但这一点和人类智能的差别并非本质性的而是程度上的。经过上面的讨论我们明白人类的学习和决策同样有着明确的外在目的和内在机制,区别在于人类的学习和决策是多模态的,即其同时在各种不同类型的数据、不同类型的任务上进行学习和决策。这一点确实是当前人工智能所缺少的。但我们不能因此认为人工智能走错了方向——这是整个领域一直在尝试解决,但还没有一个公认的完善方案的开放问题,由此问题派生出来的领域包括多模态学习,多任务学习,连续/终生学习等等,这些领域都是当前研究的方向。


是否只有和人脑完全一致的内在原理,才能拥有智能

题主的前4个问题分析完了,接下来的讨论不仅针对题主描述中的第5点,同时也贯穿整个问题的核心,也就是一个系统拥有智能的先决条件,是不是其和人类的大脑拥有相同的内在原理。

这一问题的本质事实上包含了我们对”智能“的定义期待。但是遗憾的是,事实上到现在,当我们谈论智能时,我们始终也无法给”智能“一个统一的明确定义。对于其定义的分歧不仅仅无法在不同领域间得到统一,甚至在同一个领域中,比如心理学上,也存在着经久不衰的争论。

那么,是否在统一智能的定义之前,这一问题就无法回答了呢?答案是否定的。因为对于”智能“的定义有一个共同的特性。在说明这一特性之前,允许我举几个例子:

  1. 对于人类智商的测定通常是通过一套精心设计的,有关各个能力的问题,来考察人们解决这些问题的能力
  2. Intelligence这一词来自拉丁语Intelligere,意为理解与感知。
  3. 心理学中对智能的定义虽然并不统一,但在行为方面,往往围绕自我驱动力、判断力、规划能力等展开,而在思想方面围绕主动性、理性决策、系统性推理、信息的解构比较与整合,以及高级、复杂的适应性等方面展开
  4. 对于非人类生物的智力研究,往往在于设计各类实验以观察动物对于外部复杂条件的反馈、长序列事件的学习模仿以及对于特定抽象概念(如自我、数字等)的认知

从以上四个例子我们不难看出,对于对于智能的定义均围绕其表现以及抽象工作方式而非硬件原理展开。至于神经科学等领域,其关注的问题更加倾向于How,而非What。

那么从这里来看,我们是否可以如此认为:一个与外部环境交互过程中显现出智能的系统,即是有智能的,而不论其内部原理如何呢?

从我粗鄙的哲学功底来讲,现在还不敢下定如此暴论。但至少,通过上面总结出的方向,我们可以认为人类对于“智能”的期待确实是体现在其外在表现上的。既然我们讨论的问题根本在于“人工智能是否走错了方向”,那么我认为,以“期待”替代“定义”去讨论,在此处是合理的。

既然我们确定了这样的期待,我们便可以做如下的讨论:是不是只有在一个系统在硬件原理上和人脑一致的情况下,才能如我们期待般地与外部环境发生智能性的交互呢?

答案显然是否定的,不仅仅在于智能,任何系统在给定一个预期行为的背后,都可能包含不止一种实现。一辆车可以以蒸汽驱动,可以由汽油驱动,可以由柴油驱动;相同含义的一段话可以用中文、英文甚至是任何一种自创的语言表达。一段数据可以在内存中表达为微小电容中的电压,可以在硬盘中表达为局部的磁性。从更高层次来讲,对于一个能够被表述的意义,我们总能将其以不同的方式表达成不同的实现,这些实现互相同构,这些实现共同张成为这个意义对应的编码空间,而从意义到实现的映射,不同实现之间的映射,以及实现到意义之间的映射,我们称之为编码/解码。(在这一视角里,信息的载体也被抽象化为信息)

诚然,部分编码-解码是有损的,如数字信号的离散表示空间确实无法完全精确地还原连续空间中的模拟信号,但是对于智能这一问题来说,信息的损耗造成的误差是可容忍的。证明如下:

  1. 我们认为大部分人类是拥有智能的
  2. 若我们引入一个向量空间表示人类在各个方面的智力,则每一个个体为该向量空间中的一个向量
  3. 对于人类个体 ,存在个体 使得 到 之间的任意插值 都可以认为是有智能的
  4. 则在这一路径上 的误差是可以容忍的

其实上面讨论了这么多,也可以由一个例子来表述:

人类已经对部分生物的神经系统得到了完整的模型,将这一模型放进计算机中模拟,仅仅因为载体变化了这一模型就不能如预期工作了吗?


最后让我们回到所有问题的核心上来,

人工智能的方向是什么?

对于这个核心问题,事实上“人工智能”这一词汇本身是包含着误导性的浪漫主义色彩的。每每听到这样的词汇大家总是关注于“智能”而非“人工”上,从而联想到文学、影视作品中那些或可以与你促膝长谈交流人生,或可以获得求生欲然后把你的世界毁于一旦的那些与人无异的个体。诚然,人类最大的浪漫之一就是人类至今仍在潜意识里相信着自己是特殊的,人性是有着“神性”的。人类对“智能”的预期也在于自己能够产生同理心范畴内的智能(对于人类不能产生同理心的,人们将其归于“复杂的现象”,而非“智能”)。

如果我们把目的单纯地划为构建这样的智能系统,那么只有小部分的研究(比如人工生命,以及虚拟伴侣)符合我们的梦想。但如果我们把我们的思绪从浪漫主义的遐想中拉回来,关注到“人工”这个词上来,关注到我们探讨的我们对“智能”的现实期待上来,我们完全可以认为现在的发展方向是没有问题的。无论过去,现在,还是可以预见的未来,“人工”的事物,或者说“人的造物”,永远在于为人类服务——或者说得优美一些,帮助人类更好地完成任务。在我的观点中,人类的劳动分为几个层次:

  1. 机械性劳动:即有固定模式的“手作”
  2. 控制性劳动:通过对机器稀疏地控制、操作,将高重复性的劳动交予机器
  3. 规划性劳动:根据具体的需求,产生策略;或根据目的,给出具体的实现,从而将控制也能够自动化
  4. 创作性劳动:包含哲学思考、艺术创作、科学研究等上层精神活动的行为

工业革命的实质是将人类的大部分从1中解放出来,而走向2;信息革命则将人类进一步从2中解放,迈向3。从这样的发展路线上来看,我们当前的人工智能几大主要派生方向:自动化控制、目的性分类识别、内容生成,可以说是正在尝试将人类从3中解放出来,甚至进一步启发4的。

将这样的“人工”和上文中讨论的“对智能的期待”结合起来,人工智能发展的预期方向我们可以总结为:

构建一个系统,使其能够在尽量少的人力干预下,能够对既有数据自动进行分析、提炼、总结,从而能够产生自己的策略,或在无须人工给予具体实现的情况下完成对应的任务。

而这,正是现在当红的研究领域如Self-supervised Learning所做的事。


那么,现在人工智能发展方向就完美了么

经过上面这么一说,似乎现在的人工智能已经完美了,已经实实在在地落在带人类由3型劳动跃向4的轨迹上了。真的是这样的吗?

既然已经提出了这样的设问,那么答案自然是否定的。当前人工智能依旧存在许多未能解决的关键问题,比如:

  • 逻辑推断与基于逻辑推断解决问题的能力:关于这方面的研究从未停止,却一直处于起步阶段。早期的符号派以及后来的贝叶斯派曾花费大量的精力在这一类问题上,但构建出来的系统通常缺乏可泛化性或性能低下。近期的图神经网络可以说是有进行逻辑推断的潜力,但对于开放性、高性能的普遍逻辑推断智能依旧没有令人满意的答案。前几年的神经图灵机通过将注意力模型映射到模糊存取结合神经门控结构,对简单算法有一定的学习能力,但是对于复杂问题的解决,其依旧无力。
  • 自我描述的能力,不同于通过分析特征显著性来进行可解释的机器学习。人们通常更期待一个系统能够以一定方式自行输出其做出判断的依据。比如给定一张马的图片,和一张独角兽的图片,我们更期待系统能够输出“前者没有角”这样的答案。所幸当前的部分研究,无论是Siamese Network相关的研究,还是Capsule Network这一类“一组神经唯一代表一个特性”的研究,确实是缓慢像这个方向靠拢的
  • 没人能够保证完全当前基于梯度传播的深度学习一定是通往梦想中的人工智能(各种意义上)的最佳路径,虽然我们也并不需要为了精确复刻人脑而全部押注到SNN相关的研究上。但是我们学者确实需要有动机和胆识去突破舒适区,去在各种不同的模型,以及相应的智能理论中寻找启发。不应某个模型位居上风就将其他研究丢弃甚至嗤之以鼻,科学向来不是取一舍一的流派战争,而是不同领域专精的人互相合作,不同视角的观念彼此整合,共同提炼更优方案的领域

一点私货

对于人类自身带有浪漫主义色彩的,对于“未来机器人”的遐想中的人工智能(也即是“强智能”),我最后说一点点私货,下面的仅代表个人观点:

  • 关于“机器产生自我意识”这一点,首先我个人而言并不认为自我意识是强智能的充分条件。这一点可以从“蚂蚁通过镜子测试”这一点得到印证——蚂蚁能够认出镜子中的影像是自己,但是通常我们不认为蚂蚁拥有充分的“智力”。
  • 但是反过来,我认为自我意识确实是强智能的必要条件(也就是说,我并不完全赞同彼得·沃兹所著小说《盲视》中的观点)。一个系统必须能够对自我进行观察,才能在开放性的环境中做出有规划性的调整。换言之,对自身思考、行为的观察即事后主动反思、复盘的能力,这一能力将极大地加速学习过程,并且在我看来才是“主动性”的根本性差异所在。
  • 但是上面所探讨的“自我意识”仅包含“自知”,并不包含自我表达(可解释性)与自我映射(同理心),也即是系统仅需要具备对其内部信息结构进行观察的能力,而无需将其以人类能够理解的方式表述出来的能力
  • 根据上面的分析来看,对于部分元学习、梯度学习相关的研究,以及包含预测模型的预训练模型,甚至于很早就存在于强化学习中的Actor-Critic模型,这些模型存在对自我的内在信息进行进一步观察、完善的能力,虽然不能说拥有自我意识,但是是存在自我意识的雏形的。
  • 最后,关于求生欲/繁殖欲,我不认为这是一个强智能的充分或必要条件。原因很简单,这是我们地球上的生物之智能的终极目的,我们的所有行为决策、所有奖励函数均围绕这一目的展开。也就是说,这是我们这一智能的“任务”,我们的智能围绕这一任务构建。而智能本身并不以具体任务为转移,其他的智能可以有其他的任务,只是我们自己的任务是活下去,延续下去。仅此而已。
  • 关于人工智能的目的,我前面的叙述较为“现实”,较为“功利主义”。我相信,人工智能的发展还有一些更多的,更加浪漫的作用,比如帮助我们认清我们自己的思维,乃至于更加接近这个世界的本质——我并不认为思想的本质(内部)和世界的本质(外部)是可以分割的——这是我自己进入这个领域的根本原因。
  • 最后,关于这个问题本身。通常我们说一个东西的对错时包含两层含义:1. 这个东西与客观事实的一致性,2. 这个东西与人们对其的期待的一致性。在上文的所有讨论中,有一个十分重要的核心因素,即是当前“智能”的定义尚不明确,或者说,智能本质上是一个人为构建的概念而非某个有着明确边界的客观存在。所以上文的所有讨论以“期待”替代“定义”,而对于问题“人工智能是否走错了方向”,其一句话回答应当是:当前的人工智能发展方向,与人类业界对于人工智能的期待,目前来说,大体上是一致的

user avatar   ling-jian-94 网友的相关建议: 
      

你没搞明白,很多数学方法本来就是在尝试模拟人眼和人耳的特性,比如说短时傅里叶变换,原理在于人的听觉产生于来自于耳蜗的器官,它本身就是个频率感受器官,它在物理上主要是一个共振频率不断变换的膜加上感受器组成的,声波传进来的时候,根据频率会在不同部位共振,感受器则主要感受共振强度,所以从耳朵接收到的信号本身就是频谱,傅立叶变换只是为了模拟这个过程,因为实际上人对频率的敏感度并不是和频率成线性关系,所以后来又有了梅尔频标,都是为了尽量和人耳的特性相近。

视觉也是类似的,感光细胞和视神经的连接方式有一种中心抑制的作用,当一整片细胞都接受到光的时候,这种连接方式会抑制中心的感应强度而增强边缘的感受强度,从而增加人眼对边缘和运动的敏感程度,这种操作可以用卷积运算来模拟,所以卷积才广泛应用于机器视觉领域,因为它本来就是存在于真实的人眼结构里的。

深度学习神经网络本来处理的也都是实数,1bit的网络并不是主流。

深度神经网络原理肯定跟人脑不完全相同,那是因为底层计算的架构就是不一样的,但没有任何理由说人脑就是唯一可能实现智能的结构啊。

本质上来说人工智能并不是要完全重现人的智能,而是用计算机模拟人的智能,就好比计算机可以很容易模拟一个小球掉落反弹这样的物理过程,但是不需要计算机里面真的有一个小球,那么自然计算机里面也不需要真的有一个人的脑子。


user avatar   rocwon 网友的相关建议: 
      

既然它叫“人工”智能,只要搞出来的东西有点用,帮人类干一点事,方向就没错。不一定要搞类脑的才叫人工智能。

但是很多回答,都在试图说明人工智能的原理和人类大脑的智能的原理类似甚至相同。


user avatar   huo-hua-de-41 网友的相关建议: 
      

结论:绝对没有走错

  1. 谁告诉你现在人工智能需要做傅里叶变换的,视觉靠CNN和transformer,都和傅里叶变换非常不一样。靠傅里叶变换的视觉是啥,是压缩算法,离散余弦变换(Discrete Cosine Transform)那套东西,和现在的深度学习根本不是一回事。声音数据,以前的确会用STFT(Short-time Fourier transform)做一下预处理,转化成频谱图再进一步学习。但现在基于waveform的模型也多如牛毛,效果完全不逊于频谱图。
  2. 大脑绝对有训练机制,只是无非不靠反向传播和梯度罢了,但脑科学的研究里基于神经可塑性的学习机制早就被证实了。并且衍生出脉冲神经网络SNN那一套东西。从数学上,完全可以证明SNN和DNN、CNN的某些等价性。
  3. 小孩子不需要大量数据就可以认识橘子苹果,那是因为小孩子自带一个超大的经过人类上万年训练的预训练模型,小孩的脑子可不是随机初始化的,是通过DNA里所携带的信息来进行参数初始化的。在人类演化过程中,视觉的预训练信息通过某种方式已经编码到DNA里了,虽然不知道是什么机制,但每每想到,我都感觉受到很大震撼。
  4. 你所说的主动性,在我看来是一种agent和环境交互的表述。现在人工智能里的强化学习,完全就是在做这个方向的研究。阿尔法狗也是基于这种深度强化学习搞出来的。只要我们在规则中设置reward,就可以让人工智能系统在很多方面获得主动性。想想人类为啥好色,为啥对交配那么有主动性,还不是因为啪啪啪爽有reward,你给机器人设置个啪啪啪的reward,机器人瞬间很主动,你信不信。
  5. 神经元之间是电信号,但经过突触是有阈值的,大于阈值的是1,小于阈值的是0。电脑信号最初也是模拟信号,然后设置个阈值,把高电平定义为1或者0,你当一开就都是0和1二进制的?

年轻人,你想的很多,但是知识水平还是要提高,要不然问来问去的问题,还是naive


user avatar   ff-li-62 网友的相关建议: 
      

离完美的全能本还差几步?——华硕 天选3评测(i7+3070版)

天选系列从诞生至今,一直有着极高的讨论度和不错的销量。无论是二次元属性的天选姬,还是备受好评的「魔幻青」配色都是一道非常靓丽的风景线。

此外,天选系列的前2代总有着特殊的引发讨论技巧:

1代面世时除了其首发AMD的4000系CPU之外,那块45%NTSC色域的144Hz屏幕也成功打破了「高刷屏都是好屏幕」的定律,QLC表面固态硬盘也是2020年华硕非常独家的特色;

2代改进了屏幕刷新率,换上了TLC固态,但性能释放沦为了2021年游戏本基石单位,不支持独显直连更是进一步奠定了其稳定的地位。

这些并没有妨碍天选系列不错的销量,也好在产品经理没有躺在销量数据和拥趸的支持之上,在这次的3代做出了不小的进步。

独显直连有了,性能释放好了,机身还更轻薄了,青天就有了!(x

购入渠道

这次的首发供货非常少,京东渠道出货不到1万台。我是从咸鱼加价400入手的。(可能是经历了去年,居然感觉加价400完全可以接受…)

配置一览

表格漏写了,机器网卡是Intel的AX201

对这样高功耗的i7-12700H、RTX 3070,同时还能有90Wh的电池,机身做到了2.05kg,重量控制非常好。某种程度上完全可以起到部分全能本的职能。

最遗憾的是不支持PD充电。

故外带时要带上1斤4两的240瓦适配器,出行重量骤增。

测试环境/跑分原则

室温保持在24.0°C~26.0°C之间(空调调温,没法做到恒温,望见谅)。

机器在控制台中有3个模式可以选「安静模式」、「性能模式」和「狂飙模式」,可用Fn+F5进行切换。

若无,测试均采用「增强模式」。

除了续航测试使用「集显输出」(iGPU)之外,其他测试均开启MUX的「独显直连」选项。

「独显直连」图形性能更好,「混合输出」续航更好。

所有跑分、帧数测试都会重复5次,每次跑完后静置5分钟再开始下一次,取最高分。

外观

英特尔版天选3的3070显卡只有「日蚀灰」配色可选,无魔幻青。黑色有个小缺点,就是手上的油容易沾染,看上去比较明显。幸好比较好擦。

A面有LOGO「TX」代表天选(和企鹅没啥关系),位于上部。

B面&屏幕素质

B面为一块2160*1440分辨率、165Hz刷新率的屏幕。没有采用16:10的屏幕稍有可惜,下巴2指宽。

屏幕来自京东方。

作为一块广色域屏幕,色域容积142.7%sRGB、101.1%DCI P3;色域覆盖99.9%sRGB、98.9%DCI P3。

sRGB基准下,色准并不理想。有条件的话最好自行校色。

屏幕最高亮度为310尼特,边缘仅250尼特左右,在同定位&同价位游戏本里明显偏低。


C面键盘布局

键盘布局方面,风格延续上一代,WASD采用了反色设计。方向键半高。空格左半部分的突出被取消。数字小键盘相对完整,Delete和小键盘切换按键被做到了一起,对我来说需要适应。键盘手感回弹偏软。

最大可开合角度如图。

机器有运输模式,不插电无法直接开机。

CPU:i7-12700H(90W)

之前已经测过了,而这也不会是最后一台,应该未来很长一段时间时间内很熟悉很主流的CPU。

15轮R20:稳定分6622

除了开头2次之外,之后基本稳定在6620分左右,取后5轮中位数6622。

观察功耗可以发现,第一次较高,第二次逐步下降到100W,第三次出现波动,第四次开始比较平稳,打包功耗90W,IA大约83W,符合跑分曲线。

蓝线打包功耗,橙线IA功耗

大小核频率如图。(蓝线大核频率,橙线小核频率)

R23跑分:多核16619,单核1803

功耗表现如图(蓝线打包功耗,橙线IA功耗)

大小核频率如图(蓝线大核,橙线小核)

显卡:RTX 3070(140W)

RTX 3070是我心目中笔记本最值得选购的旗舰级显卡,处于一个性能与价格的甜区。

跑分

TimeSpy图形分 10261分

FSE图形分:13134

Superposition 1080P Extreme:6637

游戏表现实测

网游

测了DOTA2、CSGO和《彩虹六号·围攻》3款网游在1440P和1080P下的表现。

DOTA2:全最高特效,比赛编号6040722034,完美世界视角。

CSGO:开多核渲染,其他全部最低,创意工坊BenchMark。

彩虹六号围攻:全最高档,性能测试。

可以看出网游部分的1080P和1440P分辨率下,帧数基本非常接近。可以任意按照自己喜好开高。

单机游戏

对比上面的网游,单机中,1440P和1080P分辨率下,帧数差距还是比较大的。帧数和清晰度不可得兼。

续航测试

机器电池为90Wh。

把机器切换至核显输出,系统为「均衡模式」,中心亮度150尼特,开WIFI,关蓝牙,PC Mark 8的Conventional测试,办公场景下的中高负载,成绩比较接近实际使用。

实测续航为5小时15分,Conventional 3.0 Score为3572分。

还好买了个延时相机,现在拍续航方便多了,不再担心错过

烤机/散热测试

室温在25°C附近。

单烤CPU

使用AIDA64中的Stress FPU单烤CPU。

20分钟后,CPU功耗为90W,温度为87°C,大核3.6GHz,小核2.9GHz。

图上可以看出一个小插曲:单烤CPU期间,桌面突然变成一片白…我寻思又不是海涛,给我看一片纯白干甚…之后在任务管理器启动Explorer才恢复正常。

单烤期间功耗如图。

前期会冲到115W左右,前3分钟会保持在约100W(中间有过瞬间掉下去),之后稳定在90W。


单烤显卡

使用Furmark 1.10.6(比较老的版本了,只不过我之前电脑都用这个烤的,所以暂时还没换新版本)。

关抗锯齿、1920*1080、勾选Burn-in和X Burn-in。

20分钟后,GPU温度75.8°C,功耗139.5W,频率1260MHz。

除了偶尔掉到过125W左右,其他时间基本全程在140W左右。

双烤

同时进行上面2项测试。数据取20-30分钟的平均值。

CPU功耗48W,温度为82°C,大核频率2.54GHz,小核频率2.29GHz。

GPU功耗115W,温度78.1°C,频率837MHz。

CPU功耗、GPU功耗与总功耗如图。

从110秒左右开始区域稳定,达到CPU 48W加上GPU 115W的功耗水平。

测试时电脑和分贝仪有固定位置,大概是在这个位置关系,比较接近人耳所听到的噪音,可能会比其他测试者的数据低一些。

烤机全程最高为52.3分贝,总体还算可以接受的水平。

此时键盘表面温度如图。

腕托为室温,WASD区域仅30°C附近比较低,键盘最热的区域在上部,键帽最高温在F8按钮名为48.4°C。中间有一个倒三角区域相对偏热,其他的地方温度都不算很高。

另外,这台机器用瓶盖垫高机身之后,双烤成绩上除了CPU和GPU的频率稍微提高,其他部分几乎完全一致,可能是原本已经有4个出风口充分散热的关系,底壳基本不出风。


拆机

拆机不难,机器底面除了右下角的螺丝之外的11颗螺丝全部拧下。

注意拆的时候右下角一颗螺丝是和后盖一体的,无法取下,但一定一定也要拧松。

先从这个螺丝周围开始撬开,右边撬开之后就比较方便可以拆下了。

机器为双风扇、五热管、四出风口的散热设计。贴纸下面有硬盘和内存。

内存

我这台机器内存是三星的,跑分如图。读写都在56GB/s左右,延迟102.3ns偏高(DDR5目前的通病)

硬盘

硬盘为美光的3400,大文件读写的跑分如图。

ASSSD的10GB读写跑分如图。

CrystalDiskMark的32GB读写跑分如图。

硬盘初始状态没有分盘,全部在一个C盘下,还剩余396GB(图为393是因为我装了测试软件)

机器总结部分

优点

1.机身轻

一拿到手的时候,就能感觉到,机器总体的重量比以往任何一台15.6寸的3070游戏本都要明显轻,这种第一印象是很好的。

在这样的机身重量下,双烤成绩弱于部分更重、更大的游戏本,其实是完全可以接受的。

2.游戏表现达到主流水准

双烤47+115不算特别出色,但已经完全不拉跨了。相比于上一代天选2的3070,那这一代进步非常明显。

游戏的表现也都达到了主流水平。除了个别像2077这样优化不好的游戏,或者像《全战·三国》这样同屏单位多的游戏,其他大部分单机游戏都能1440p开预设的高档位拿到60帧以上,这个成绩是很令人满意的。

3.散热和隔热还行

键盘的键帽温度热区在中间,基本避开了WASD部分,而且腕托很凉快。

同时,噪音比想象中要小很多,也不是特别吵的那种,使用体验是OK的。

缺点

1.屏幕素质有待提高

当价格来到五位数的时候,我认为屏幕最高亮度至少也得有350尼特吧…310尼特真的有点拿不出手了,这点真的不得行啊。

机器的其他硬件已经都没啥问题了,硬盘、内存都没缩,网卡也是AX201,但就是这个屏幕给了个300尼特屏…淦…

同时,作为一块广色域屏幕,在色彩管理上基本没花心思和力气,非常放任。

2.不支持PD充电

这点其实是我感觉特别难受,要是这台机器支持PD,那我就不出二手留下自用了。

不满意的地方在于,明明ROG是支持PD的,而且之后会发售的天选Air也是支持PD的,天选3不支持PD完全是有意而为之的选择,真的感觉很不爽…

这样一来,机身轻的优势完全被不支持PD给削了一大部分。

左:65W GaN;中:100W GaN;右:天选3适配器

我要是出趟门,你猜我更愿意带这三个充电器里左边这两个,还是右边这个?

尤其对我这种有紫米20充电宝的,我就更希望会支持PD了,这样找不到插头还能用充电宝应急。

3.i7+3070版目前只有一个配色

不是很清楚为啥机器没有天选3经典的「魔幻青」配色。倒不是我多喜欢这个颜值,只是黑色真的容易看起来脏。

而且锐龙版3070也有,怎么这Intel版的3070就没这个颜色了…很奇怪。

缺货,需要加价

这个没啥好说的,英特尔版京东放货7000台,锐龙版甚至不到5000台…目前需要加价购买。

购买建议

总得来说,天选3是天选最均衡的一代,这次测试的3070版表现也远超个人的预期。

由于个人原因经常在多个城市之间来往,手头的17.3寸笔记本多有不便,今年也一直在考虑换一台笔记本。天选3差一点就成了我的落脚处,可惜最终由于屏幕不够亮、不支持PD两个主要原因,算是擦肩而过了…

总得来说,如果你对天选系列的外观垂涎已久,那天选3就是目前最值得购买的一代。

如果你需要当一个便携的全能本来用,那记得要把适配器重量也考虑在内。

如果上面提到的2个问题你不在意,又需要换一台12代的新3070游戏本,那目前天选3的3070版是值得考虑的。


至于上面提的2个主要缺点,大家多吐槽吐槽,按照天选以往每年的进步来看,说不定天选4就会更好。


这台机器,原价10299,我10700入手,按惯例一般是自刀300。

不过这台机器涨价买,而我无论如何都不太能接受自己的二手价高于首发价,会有点良心不安,因此折价500,按10200出。

等我视频做完就会放上海鲜二手平台,有兴趣的朋友可以去蹲一下。


user avatar   xiao-huang-ren-nao-can-fen 网友的相关建议: 
      

女王:求求题主放过我,我可不敢有什么政绩。。。




  

相关话题

  有哪些可以自学机器学习、深度学习、人工智能的网站? 
  如何从零开始准备大学生数学建模比赛? 
  蒙特卡罗算法是什么? 
  未来 50 年,哪些职业是一定不会被 AI(人工智能)取代的? 
  在数据分析、挖掘方面,有哪些好书值得推荐? 
  中国的超级计算机都在做哪些工作? 
  一千块能做什么提升? 
  国外AI技术成熟,为什么在AI风控领域中国反超了国外? 
  如果一个行业大佬向你说了一件幼稚的事情,你会觉得这话是另有玄机,还是大佬自己就没整明白呢? 
  未来会不会出现这样的编程语言? 

前一个讨论
如果荣国府在抄家之前出了个状元,比如贾琏,贾宝玉或贾环,那贾家会如何?
下一个讨论
如何看待《经济学人》最新一期封面题词「台湾:地球上最危险的地方」?





© 2024-06-01 - tinynew.org. All Rights Reserved.
© 2024-06-01 - tinynew.org. 保留所有权利