先来一个另辟蹊径的角度:复刻索卡尔事件,可能会遇到一些实验伦理的问题。
进行此类整活(用程序生成文本给人看),请务必找到自愿合作的对象!最好提前声明“你接下来读到的文本,有一定概率是程序自动生成,而非人类写出的”,必要时甚至可以支付劳务补助。当然,整天无所事事上网冲浪的网友似乎是绝佳的志愿者。
考虑以下几个有伦理问题的实验:
因为钓鱼(广义的)本身就释放了不友好、不合作的信号,所以更应该少钓鱼、谨慎钓鱼,或者只对敌人钓鱼。
再回到索卡尔事件本身。
“机器也能完成同样的任务”甚至“机器能完成得更好”都不构成对于一项任务的否定。用代码搞出来的排序算法比人手动排序,不知道强到哪里去了,但是排序这个任务照样有价值。用最庸俗的标准来看,这东西能赚钱。
机器写论文摘要能写得和人一样好[1],但这显然说明不了“摘要是没有意义的”。
被批判得最惨的文章生成器(比如直接拿着markov chain去拟合数学论文),反而是因为它“不能完成对应的任务”。比如一个失败的数学论文生成器,根本无法稳定生产出有效的证明(输入命题和默认的公理集,输出证明),甚至恐怕连一些稍微复杂点的代数表达式都简化不了(好歹也得整出个theorem prover水平才行)。这离数学家的水平差太远了。
通过机器学习完美拟合出某个东西A的结构B,进而否认这个东西A的价值,必须依赖于“结构B没有价值”的前提。比如每个字都是iid的随机选一个汉字,那么这样构成的文章,以及围绕此类文章建设起来的社区,恐怕也没有多少价值,连一节概率论入门课都不如。同理,一大串狗屁不通晦涩难懂的高级词汇,翻译回人话之后就一句“我今天吃了饭”,这文本的价值也只剩“我今天吃了饭”的价值和词汇量炫技的价值了。
利益相关:我觉得康德、黑格尔,到后面的费希特、谢林,再到之后的胡塞尔、拉康、齐泽克,他们的思想价值差不多刚好能塞满时长一学期的一门本科课程,换句话说也就那样。虽然我很感谢有研究者孜孜不倦地学习他们的思想,但不用拟合文本也能得出这一结论。分析哲学有些不错的点子,但学完之后也索然无味,再钻研下去不会有什么回报。在网上学这种哲学理论,真的和看虚拟主播也没啥区别,茶余饭后的娱乐而已,要认清楚定位,别魔怔地以为拿到了屠龙宝刀无往而不利了。说俗点,它们能用来吸引客户和投资人吗?
……分割线……
写这个答案的时候没去看视频,刚刚看了一下,只能说未明子的论点和我差别太大,不太听得懂,告辞。
搞Obscurantism这种晦涩难懂的写作风格,本质上就是强迫读者支付更高的理解成本,而不是让作者承担更高的沟通成本、说人话。在这东西不赚钱的情况下,我作为读者自然有甩手不看的自由。
文科劣势尽显。申论生成器甚至都没用机器学习,只用了随机文本替换,就成功达到了优秀申论的八成水平。拉康可能麻烦一点,但也不会麻烦更多。实实在在的一码胜千公。
不过如果您是拉康本康的话,LSTM再厉害也只能模仿您,所以还是创新最重要。
你做得好,你做得好啊!.jpg
箭已经在弦上了,只差最后一步:随机把生成的怪话扔到vmz等网哲的评论区展开对线……然后若干天之后真相大白,这个行为艺术就完成了
其实这个怪话生成器和其他狗屁不通生成器的最大区别在于,它攻击的领域真的有很多人(如果不说所有人)都是在拿着自己根本不理解、别人也不理解他在说什么的话术在那鸡同鸭讲,不但没有自行统一话语定义的能力,甚至根本没有能被人类理解的可能(毕竟,是他们自己在宣称黑话的必要性,也是他们自己说「形而上概念不需要和经验事物对应」、「哲学就是误读」云云),互相之间甚至都不承认同一个常用词语的用法是非常常见的事……
换句话说,你直接拿狗屁不通的黑话,他们还真有可能对起线来,甚至搞不好还会同意它的观点——而未师甚至直接就开始对线了,正中下怀……这也是为什么它能让未师和那么多网哲小孩破防的原因
这个事情滑稽的地方在于,在揭盲的前提下(未名子本人清楚这段文本是AI生成的),未名子用了二十分钟才说明白第一句话为什么是有问题的。甚至未名子都没敢说这句话是狗屁不通的,只说明了这句话“对拉康的理解是肤浅的”。
注意未名子视频里3分36秒到4分08秒的精彩发言:
一个自主的系统...呃...嗯(皱眉)...啊...自主的系统...你这个自主的系统是什么,自主性是automacy吗?
合着您这半分钟是去翻英汉字典了吗?
倘若随机抽出未名子的一个粉丝,让ta阅读一段未名子的话和一段AI的话并判断哪一段是AI写的,ta判断正确的概率应该不超过60%。根据莱布尼茨法则,如果一个东西看起来像鸭子,走起来像鸭子,叫起来像鸭子,那它就是鸭子。如果拉康信徒写出来的玩意儿看起来像AI胡编乱造的,读起来像胡编乱造的,分析起来像是胡编乱造的,那它就是胡编乱造的。
索卡尔的抽象烂活已经够烂的了,不知道为啥总有理工男想复刻这套抽象烂活,全给烂完了属于是。
让我们看看未明子是怎么批评他的:
如果他读过黑格尔的《逻辑学》和《法哲学》,马克思的《神圣家族》,那他至少也能当个幕僚,不会仅仅只当个程序员。
哈哈哈哈。
本来以为未明子有何高见,看了15min实在看不下去了。居然能够花10min解释20个字,不知道应该说是微言大义还是交流效率低了。梦回高中上阅读理解。而我的语文一直很差,所以估计也不是他的问题,是我过于愚笨,无福理解他对LSTM的批判。
不过,我觉得他纠缠在怎么解释生成的文本(或者说明其无意义)意义不大,如果稍微接触过语言生成的话,应该知道现在大部分的生成模型都是模拟形式而不能模拟思想。以这次的模型为例,假如生成的第一个字符是“他”,那模型不过是在预测“他”后面应该跟着“是”、“者”还是其他字符罢了,后续以此类推。做个不恰当的比喻,模型不过像是一个外国人从一堆汉字卡片里捞卡片出来拼在一起,然后对着原文,让拼出来的东西尽可能像一句话罢了。或者说就是输入法智能推荐不停点第一个。哪怕从这种生成机制也能知道,模型甚至没有对术语的概念,更不要说理解术语间的内在联系了(话说只以一篇文章为语料本来就没法学到文章之外的知识,又不是bert)。从b站视频下面的第一条评论可以看出,它的预测和原文相似度很高,已经说明它训练得很好了。
因此,对文章内容的反驳,一个简单的not even wrong就够了。长篇大论的说,反而让人怀疑是否是被破防了。至于什么幕僚云云,我只能说,不会有人让机器人当幕僚的,严格来说,程序员连语料文本都不需要看,哪怕是齐泽克来跑这个模型,结果也是差不多的。文章的目的也不是证明什么哲学家都能被人工智能取代,而是能被人工智能取代的哲学家(我们可能更习惯把这种喜欢缝合术语的人叫做黑话小鬼)就别当哲学家了。至于说让普通人分不清小鬼和专家的话语体系(我说的是深度学习),嘻嘻,我不好说。
在关掉网页之前,扫了一眼评论,发现大家对深度学习似乎有一些认识。比如:
第一条评论列出来一个简易的调色盘,说明生成的文章是原文的缝合怪,以此批判说人工智能不够智能。这个确实一语道破了本质,所有的知识都来自原文,那怎么样都是原文的缝合怪。类似的很多认为人工智能不过是高级的统计工具,或者说就是算命。前者对应比较传统的机器学习算法(MC,NB),后者对应现在的炼丹。我觉得都没太大问题,没有被互联网公司的宣传骗到,深感欣慰。
因此,应该没几个搞人工智能的人觉得神经网络真的有思想什么的,也不会把它当作神明或者一切问题的终极解决方案。有些评论说,程序员不敢把深度学习引入到理科,说计算机也是一堆黑话。那我建议搜索一下alphafold和alphacode,后者应该是最近的工作,在知乎上也有一定的讨论度。至于单纯批判无意义黑话的生成器,基本是每次出现故弄玄虚的黑话就会有人做。批判互联网黑话的生成器在知乎上就有。大家也不用跳脚,都一样。
追加和知友讨论的部分内容,上下文可以看评论区。在经过讨论之后,我认同原文对拉康话语体系的一棍子打死是不对的,但很多反对者的意见是生成的内容狗屁不通,很可惜,这是事实,但不是一个有效的反驳。
(生成器的)作者当然是对这套话术非常反感。但ai在这里不是取代哲学家的机械神(好像很多人都这么想)。ai能产生文章,哲学家能产生文章,所以ai=哲学家。那篇文章确实是这个意思。但潜藏的观点不是ai和哲学家一样高级,而是我的回答中描述的:玩弄术语的哲学家和ai一样低级。如果只是无意义堆砌术语,那自然没有学习的意义。所以未需要用人话回答一个问题,他那套哲学的严肃性是不是只是来自于术语的高深晦涩?这才是对这篇文章消解严肃性的反击。
感谢未明子对我这篇回答的回应,我之前对您有些错误的印象,这显然影响了我的回答,相信这不会对您造成太大的困扰。毕竟,您是不会把机械的奴隶的断言放在心上的。
关于您在视频中提到的部分观点,我可能要做一些补充解释,因为我语文不好,表达上有偏差。主要是下面几个观点:
因此,我感谢您对我的回答的回应。让我修正了我的一些看法,即使这样,我大概还是您眼里的小孩。这也是没办法一下子就改变的事情。或许某一天,我因为某些原因也会投身这个领域。期待到时候能真正感受到您的思想。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有