传统机器学习模型被诟病较多的是单任务学习,诟病指向的是:那些从一开始就把单任务学习简化成一个向量输入、一个分布输出的简单复合函数,或者seq2seq+attention,或是再不济加上graph的取巧模式…
然而Deepmind / OpenAI这样的团队,一出世就是World Model,然后持续的醍醐灌顶+庖丁解牛一步步逼近AGI的数学思维进化;期间,犹抱琵琶的发布一组模型,引得一众追随者。因此我们看到国内产学这种followership的开发者氛围的局限性在于,仍是在追随、喂养由领跑者创造的模型和规则,削弱实质创新;那么当下沉迷讨论Transformer替代CNN,潜在心理不过是想把它当作另一个开箱即用的CNN。
如今,以算力密集的数据中心来看:摩尔定律演进变缓的当下,多样性workload激增的当下,Domain-specific算力的应用迫切性会变得更高,且这个form factor无需那么严肃考虑向后兼容性了,DSA会以异构形式发扬出下一阶的算力升级和池化需求,算力升级和池化实践的体验也将引导云用户逐渐摆脱IaaS的束缚;每种DSA算力资源还能独立快速演进。那么,没有了向后兼容的编程顾虑,也没有了冯结构一切计算/存储/通信规则框的束缚,我们就放开手脚迫切追求自己的核心、自己的uArch/uOP(fusion)指令、自己的神经网络拓扑、自己的编程语法+编译器+池化调度器设计、自己通往AGI的数学原理模型,以支持本土千行百业的需求和workloads,逐渐从DC应用及其数据集处理的计算体系结构和软件层面摆脱对于外国商用主/协处理器的依赖,这莫非不是Azure/AWS等风口数据中心也正在做的事?—— 在一些不那么严肃考虑向后兼容式迭代的未来异构场景,有巨大的商业疆域,何必仍以追随者的姿态付出自己难得的domain-workload去喂养别人的生态和迭代。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有