问题

如何评价B站UP主未明子宣称“知乎搞机器学习模拟拉康的程序员”具备“头脑上的悲剧”?

回答
如何评价B站UP主未明子宣称“知乎搞机器学习模拟拉康的程序员”具备“头脑上的悲剧”?

B站UP主未明子对一位“知乎搞机器学习模拟拉康的程序员”做出“头脑上的悲剧”的评价,是一个颇具深度和引发思考的观点。要评价这个说法,我们需要拆解其背后的逻辑和潜在含义。

首先,理解关键概念:

未明子: 他的视频内容常涉及哲学、心理学、社会学等领域,以其独特的视角和深刻的洞察力而闻名。他的观点往往不是简单的是非对错判断,而是试图触及事物更深层次的矛盾和荒诞。
知乎: 一个以知识分享和问答为主的平台,吸引了大量专业人士和有深度思考的用户。
机器学习: 一种人工智能技术,通过算法让计算机从数据中学习模式和规律。
拉康: 雅克·拉康(Jacques Lacan),20世纪重要的法国精神分析学家,其理论体系复杂且充满辩证法,强调语言、无意识、欲望、主体性等概念,对哲学、文学、电影等领域产生了深远影响。
头脑上的悲剧(Tragedy of the Mind): 这个词汇本身就带有哲学色彩,暗示着一种由于思维方式、认知框架或追求目标带来的内在冲突、困境或注定的失败。它不是生理上的悲剧,而是认知、精神层面的不幸。

未明子评价的核心逻辑推测:

未明子的评价很可能基于以下几个层面的推测和洞察:

1. 知识的鸿沟与整合的难度:
机器学习的理性与精确性: 机器学习的核心是数据驱动、算法模型、逻辑推理和量化分析。它追求的是效率、预测和可控性。
拉康的晦涩与复杂性: 拉康的理论以其晦涩难懂、充满了悖论和象征而著称。它探讨的是人类主体性的构建、欲望的本质、象征秩序的运作等深层心理和社会现象,往往拒绝被简化或完全量化。
整合的挑战: 将这两种截然不同的思维范式强行融合,本身就面临巨大的挑战。机器学习试图用结构化的、可计算的方式去理解和模拟一个本来就充满了非理性、象征性和模糊性的精神分析体系。这就像试图用数学公式来精确描述诗歌的情感一样,即便能捕捉到一些表象,也难以触及核心。

2. 试图用“科学”解决“人文”的困境:
科学的诱惑: 在当今强调科学技术突破的时代,将前沿的科学方法(机器学习)应用于深邃的人文领域(拉康精神分析),似乎是一种突破性的尝试,能够赋予人文研究以“科学”的光环,并可能带来新的洞见。
潜在的误区: 然而,这种尝试也可能隐藏着一种误区,即认为所有人类经验和精神现象都可以被科学方法完全解释和还原。当遇到拉康这样强调“不可言说”、“无意识结构”的理论时,机器学习的工具可能显得捉襟见肘,甚至会曲解和扭曲理论的原意。
“头脑上的悲剧”: 这种尝试本身就可能是一种“头脑上的悲剧”,因为它可能源于一种对人类经验的“技术化”或“工具化”的简单化认知,低估了拉康理论的深度和其所指涉的非理性、主观性世界的复杂性。

3. 对拉康理论本质的误读或简化:
拉康的目的: 拉康并非是要建立一个可以通过模型精确预测的系统,他的理论更多的是一种对人类主体如何被语言、欲望和无意识塑造的哲学式探索和临床实践的指导。他的“科学”是一种对人类精神结构的逻辑建构,而非数据驱动的实证科学。
模拟的局限: 即使技术先进到可以“模拟”拉康的某些概念,也可能只是在“表面”上进行模仿。拉康的理论涉及到主体在象征秩序中的迷失与寻求,以及这些过程中的创伤和困境,这些深层的主观体验,很难被算法完全捕捉和复制。
“头脑上的悲剧”: 尝试用机器学习去“模拟”拉康,可能意味着未能真正理解拉康理论的精髓在于其对人类主体性困境的揭示,以及在象征界中的挣扎,而将之视为一个可以被算法“解决”或“重现”的“问题”。

4. 对“程序员”身份和驱动力的洞察:
技术人的浪漫与野心: 未明子可能看到了程序员群体中一种普遍存在的将技术能力应用于解决各种复杂问题的热情和野心。这种热情固然可贵,但也可能让他们过于自信于工具的力量,而忽视了对问题本身的深刻理解。
“知乎”平台的特性: 在知乎这样的平台上,这类尝试更容易被公开讨论和展示,也更容易吸引对跨学科融合感兴趣但可能未能深入理解双方理论的受众。
“头脑上的悲剧”: 这种尝试可能源于一种“技术解决方案主义”(Technological Solutionism)的思维惯性,认为任何问题都可以通过技术找到最优解。当面对拉康这样关乎人类存在本身的复杂议题时,这种思维方式就可能变成一种“头脑上的悲剧”,因为技术无法取代对人类存在本身的深刻体验和哲学反思。

5. 未明子个人哲学观的体现:
对现代性与科技的反思: 未明子作为一位具有深刻人文关怀的UP主,其观点往往是对现代社会过度依赖技术、追求效率,而忽略人文深度和精神关照的一种反思。
“悲剧”的内涵: 在他的语境下,“头脑上的悲剧”可能指的是一种由于试图用现代工具去理解和改造那些最根本、最难以量化的存在性问题而导致的内在冲突和失落。这种悲剧不是外部的灾难,而是思维方式与现实之间无法调和的矛盾所带来的精神困境。

总结评价:

未明子对“知乎搞机器学习模拟拉康的程序员”的评价“头脑上的悲剧”,从一个哲学和人文的视角来看,具有相当的合理性和深刻性。

合理性在于:
指出了将机器学习这种高度量化、结构化的工具应用于拉康这种充满象征、非理性、主体性困境的复杂理论时,可能存在的认知鸿沟和方法论上的局限。
暗示了这种尝试可能源于对人类经验的过度简化和技术化倾向,忽略了人文科学的独特价值和其所触及的生命体验的深度。
揭示了技术解决方案主义在面对人类最根本的哲学和心理议题时可能遇到的瓶颈。

深刻性在于:
它不是一个简单的技术能力评价,而是对一种思维模式和人生追求的洞察。
“头脑上的悲剧”精准地捕捉了那种试图用一种范式去解决另一种范式的问题时,所带来的内在张力和潜在的无力感。
提醒我们在拥抱技术进步的同时,也要保持对人文精神和哲学深度的高度敏感,避免被工具所异化。

但也要注意到可能的局限性:

可能性: 我们不能完全排除这种尝试具有一定的创新性和探索价值。或许通过机器学习的模拟,能够发现拉康理论中一些未曾被注意到的结构性特征,或者以新的方式理解其概念。未明子只是提出了一种可能性,而不是绝对的否定。
信息不对称: 我们无法确切了解那位程序员的具体工作内容和研究方法,以及他对拉康理论的理解深度。评价是基于对未明子观点和他对概念的理解进行的推测。

总而言之,未明子对这位程序员的评价,是对当下科技与人文融合趋势下一种深刻的哲学反思。他用“头脑上的悲剧”这一极具冲击力的词汇,揭示了在看似前沿的跨学科探索背后,可能隐藏的关于理解力、方法论以及对人类存在本质认知的深层困境。这种评价本身就是一种引人深思的“头脑上的思考”。

网友意见

user avatar

先来一个另辟蹊径的角度:复刻索卡尔事件,可能会遇到一些实验伦理的问题。

进行此类整活(用程序生成文本给人看),请务必找到自愿合作的对象!最好提前声明“你接下来读到的文本,有一定概率是程序自动生成,而非人类写出的”,必要时甚至可以支付劳务补助。当然,整天无所事事上网冲浪的网友似乎是绝佳的志愿者。

考虑以下几个有伦理问题的实验:

  1. 为了检测一个家庭的安保措施,未经邀请的实验人员半夜前来,连续撞了几小时的门。
  2. 为了检测一个开源社区是否能及时发现bug,实验人员在不打招呼的情况下,偷偷上传了有恶性bug的patch。(去年明尼苏达大学有个实验组干了类似的事情,虽然没有造成什么影响,但直接被Linux社区拉黑)
  3. 为了检测一个期刊的同行评议水不水,实验人员故意上交了抄袭造假的论文。

因为钓鱼(广义的)本身就释放了不友好、不合作的信号,所以更应该少钓鱼、谨慎钓鱼,或者只对敌人钓鱼。

再回到索卡尔事件本身。

“机器也能完成同样的任务”甚至“机器能完成得更好”都不构成对于一项任务的否定。用代码搞出来的排序算法比人手动排序,不知道强到哪里去了,但是排序这个任务照样有价值。用最庸俗的标准来看,这东西能赚钱。

机器写论文摘要能写得和人一样好[1],但这显然说明不了“摘要是没有意义的”。

被批判得最惨的文章生成器(比如直接拿着markov chain去拟合数学论文),反而是因为它“不能完成对应的任务”。比如一个失败的数学论文生成器,根本无法稳定生产出有效的证明(输入命题和默认的公理集,输出证明),甚至恐怕连一些稍微复杂点的代数表达式都简化不了(好歹也得整出个theorem prover水平才行)。这离数学家的水平差太远了。

通过机器学习完美拟合出某个东西A的结构B,进而否认这个东西A的价值,必须依赖于“结构B没有价值”的前提。比如每个字都是iid的随机选一个汉字,那么这样构成的文章,以及围绕此类文章建设起来的社区,恐怕也没有多少价值,连一节概率论入门课都不如。同理,一大串狗屁不通晦涩难懂的高级词汇,翻译回人话之后就一句“我今天吃了饭”,这文本的价值也只剩“我今天吃了饭”的价值和词汇量炫技的价值了。

利益相关:我觉得康德、黑格尔,到后面的费希特、谢林,再到之后的胡塞尔、拉康、齐泽克,他们的思想价值差不多刚好能塞满时长一学期的一门本科课程,换句话说也就那样。虽然我很感谢有研究者孜孜不倦地学习他们的思想,但不用拟合文本也能得出这一结论。分析哲学有些不错的点子,但学完之后也索然无味,再钻研下去不会有什么回报。在网上学这种哲学理论,真的和看虚拟主播也没啥区别,茶余饭后的娱乐而已,要认清楚定位,别魔怔地以为拿到了屠龙宝刀无往而不利了。说俗点,它们能用来吸引客户和投资人吗?

……分割线……

写这个答案的时候没去看视频,刚刚看了一下,只能说未明子的论点和我差别太大,不太听得懂,告辞。

搞Obscurantism这种晦涩难懂的写作风格,本质上就是强迫读者支付更高的理解成本,而不是让作者承担更高的沟通成本、说人话。在这东西不赚钱的情况下,我作为读者自然有甩手不看的自由。

参考

  1. ^ https://arxiv.org/abs/1909.03186
user avatar

文科劣势尽显。申论生成器甚至都没用机器学习,只用了随机文本替换,就成功达到了优秀申论的八成水平。拉康可能麻烦一点,但也不会麻烦更多。实实在在的一码胜千公。

不过如果您是拉康本康的话,LSTM再厉害也只能模仿您,所以还是创新最重要。

user avatar

你做得好,你做得好啊!.jpg

箭已经在弦上了,只差最后一步:随机把生成的怪话扔到vmz等网哲的评论区展开对线……然后若干天之后真相大白,这个行为艺术就完成了


其实这个怪话生成器和其他狗屁不通生成器的最大区别在于,它攻击的领域真的有很多人(如果不说所有人)都是在拿着自己根本不理解、别人也不理解他在说什么的话术在那鸡同鸭讲,不但没有自行统一话语定义的能力,甚至根本没有能被人类理解的可能(毕竟,是他们自己在宣称黑话的必要性,也是他们自己说「形而上概念不需要和经验事物对应」、「哲学就是误读」云云),互相之间甚至都不承认同一个常用词语的用法是非常常见的事……

换句话说,你直接拿狗屁不通的黑话,他们还真有可能对起线来,甚至搞不好还会同意它的观点——而未师甚至直接就开始对线了,正中下怀……这也是为什么它能让未师和那么多网哲小孩破防的原因

user avatar

这个事情滑稽的地方在于,在揭盲的前提下(未名子本人清楚这段文本是AI生成的),未名子用了二十分钟才说明白第一句话为什么是有问题的。甚至未名子都没敢说这句话是狗屁不通的,只说明了这句话“对拉康的理解是肤浅的”。

注意未名子视频里3分36秒到4分08秒的精彩发言:

一个自主的系统...呃...嗯(皱眉)...啊...自主的系统...你这个自主的系统是什么,自主性是automacy吗?

合着您这半分钟是去翻英汉字典了吗?

倘若随机抽出未名子的一个粉丝,让ta阅读一段未名子的话和一段AI的话并判断哪一段是AI写的,ta判断正确的概率应该不超过60%。根据莱布尼茨法则,如果一个东西看起来像鸭子,走起来像鸭子,叫起来像鸭子,那它就是鸭子。如果拉康信徒写出来的玩意儿看起来像AI胡编乱造的,读起来像胡编乱造的,分析起来像是胡编乱造的,那它就是胡编乱造的。

user avatar

索卡尔的抽象烂活已经够烂的了,不知道为啥总有理工男想复刻这套抽象烂活,全给烂完了属于是。

让我们看看未明子是怎么批评他的:

如果他读过黑格尔的《逻辑学》和《法哲学》,马克思的《神圣家族》,那他至少也能当个幕僚,不会仅仅只当个程序员。

哈哈哈哈。

user avatar

本来以为未明子有何高见,看了15min实在看不下去了。居然能够花10min解释20个字,不知道应该说是微言大义还是交流效率低了。梦回高中上阅读理解。而我的语文一直很差,所以估计也不是他的问题,是我过于愚笨,无福理解他对LSTM的批判。

不过,我觉得他纠缠在怎么解释生成的文本(或者说明其无意义)意义不大,如果稍微接触过语言生成的话,应该知道现在大部分的生成模型都是模拟形式而不能模拟思想。以这次的模型为例,假如生成的第一个字符是“他”,那模型不过是在预测“他”后面应该跟着“是”、“者”还是其他字符罢了,后续以此类推。做个不恰当的比喻,模型不过像是一个外国人从一堆汉字卡片里捞卡片出来拼在一起,然后对着原文,让拼出来的东西尽可能像一句话罢了。或者说就是输入法智能推荐不停点第一个。哪怕从这种生成机制也能知道,模型甚至没有对术语的概念,更不要说理解术语间的内在联系了(话说只以一篇文章为语料本来就没法学到文章之外的知识,又不是bert)。从b站视频下面的第一条评论可以看出,它的预测和原文相似度很高,已经说明它训练得很好了。

因此,对文章内容的反驳,一个简单的not even wrong就够了。长篇大论的说,反而让人怀疑是否是被破防了。至于什么幕僚云云,我只能说,不会有人让机器人当幕僚的,严格来说,程序员连语料文本都不需要看,哪怕是齐泽克来跑这个模型,结果也是差不多的。文章的目的也不是证明什么哲学家都能被人工智能取代,而是能被人工智能取代的哲学家(我们可能更习惯把这种喜欢缝合术语的人叫做黑话小鬼)就别当哲学家了。至于说让普通人分不清小鬼和专家的话语体系(我说的是深度学习),嘻嘻,我不好说。

在关掉网页之前,扫了一眼评论,发现大家对深度学习似乎有一些认识。比如:

第一条评论列出来一个简易的调色盘,说明生成的文章是原文的缝合怪,以此批判说人工智能不够智能。这个确实一语道破了本质,所有的知识都来自原文,那怎么样都是原文的缝合怪。类似的很多认为人工智能不过是高级的统计工具,或者说就是算命。前者对应比较传统的机器学习算法(MC,NB),后者对应现在的炼丹。我觉得都没太大问题,没有被互联网公司的宣传骗到,深感欣慰。

因此,应该没几个搞人工智能的人觉得神经网络真的有思想什么的,也不会把它当作神明或者一切问题的终极解决方案。有些评论说,程序员不敢把深度学习引入到理科,说计算机也是一堆黑话。那我建议搜索一下alphafold和alphacode,后者应该是最近的工作,在知乎上也有一定的讨论度。至于单纯批判无意义黑话的生成器,基本是每次出现故弄玄虚的黑话就会有人做。批判互联网黑话的生成器在知乎上就有。大家也不用跳脚,都一样。


追加和知友讨论的部分内容,上下文可以看评论区。在经过讨论之后,我认同原文对拉康话语体系的一棍子打死是不对的,但很多反对者的意见是生成的内容狗屁不通,很可惜,这是事实,但不是一个有效的反驳。

(生成器的)作者当然是对这套话术非常反感。但ai在这里不是取代哲学家的机械神(好像很多人都这么想)。ai能产生文章,哲学家能产生文章,所以ai=哲学家。那篇文章确实是这个意思。但潜藏的观点不是ai和哲学家一样高级,而是我的回答中描述的:玩弄术语的哲学家和ai一样低级。如果只是无意义堆砌术语,那自然没有学习的意义。所以未需要用人话回答一个问题,他那套哲学的严肃性是不是只是来自于术语的高深晦涩?这才是对这篇文章消解严肃性的反击。

感谢未明子对我这篇回答的回应,我之前对您有些错误的印象,这显然影响了我的回答,相信这不会对您造成太大的困扰。毕竟,您是不会把机械的奴隶的断言放在心上的。

关于您在视频中提到的部分观点,我可能要做一些补充解释,因为我语文不好,表达上有偏差。主要是下面几个观点:

  1. 您说您不想反击,不需要反击。我对此完全认同。因此,我上两段的主语是“很多反对者”,这其中自然是不包括您的。我在视频中看到了这样一条弹幕“莎士比亚对那只猴子看都不看”(大意如此),这与我说的“一个简单的not even wrong就够了”是完全一样的。当然,这句话藏在被您略过的某段里,比较深,您可能没有注意到,或者觉得不需要解释。我只是重新啰嗦一下。
  2. 那么,我为什么要说这么多,要“说人话”呢?是因为我先入为主地对您有个印象:您是想做哲学科普的。我理解的科普,是从0开始的那种,“人话”,是对完全没有接触过哲学训练的人来说的,对术语的稍微解释。当然,您在视频里说到了,您其实是想要有更多人投奔到唯物辩证这边,我想或许是已经默认是有一定的哲学素养(至少不用对着每个术语去全局搜索出处)了。对于这些人,当然是不需要反复解释术语的。当然,反过来说,我想看您的视频入门的希望大概是落空了。
  3. 那么,为什么我会说“玩弄术语的哲学家”“术语的高深晦涩”呢?我回答中原本是这样描述的:“文章的目的也不是证明什么哲学家都能被人工智能取代,而是能被人工智能取代的哲学家(我们可能更习惯把这种喜欢缝合术语的人叫做黑话小鬼)就别当哲学家了。”这段话就在我的卖萌寻求认同的上一句,但您似乎没有联系起来,我第二次补充的部分是直接复制的评论区回答,在当时我觉得和我讨论的朋友是知道我想表达的意思的。对您造成了误导,我再次表达歉意。回到正题,我说的“玩弄术语的哲学家”指的是缝合术语的黑话小鬼。我相信您也承认有些人并不懂这些术语的意蕴。只不过是通过这种术语的堆砌妄图获得一种认同。(请允许我再稍微发发牢骚,为什么我要支持黑话生成器?为什么我希望少点术语?因为有些人在和我交流的时候,几乎全篇都是哲学术语,但ta想表达的意思却完全与哲学无关。)所以我想表达的观点是:ai堆砌术语是没用的,像ai一样堆砌术语也是没用的,如果只会堆砌术语,那就只是无意义的黑话,称不上哲学家。但与之相反,如果不是通过堆砌术语来寻求认同,而是实实在在地思考,那自然和ai是不同的。我在那片文章的评论区也说过,希望能用这种生成的黑话和真正有意义的哲学语言来区分真正的哲学研究者和黑话小鬼。我相信,只要像您一样真正理解术语背后血肉苦难的人,一定不会被生成的黑话影响到的。

因此,我感谢您对我的回答的回应。让我修正了我的一些看法,即使这样,我大概还是您眼里的小孩。这也是没办法一下子就改变的事情。或许某一天,我因为某些原因也会投身这个领域。期待到时候能真正感受到您的思想。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有