首页
查找话题
首页
为什么有的论文放出训练好的模型和测试脚本,但不开源训练代码?
为什么有的论文放出训练好的模型和测试脚本,但不开源训练代码? 第1页
1
bearbee-2 网友的相关建议:
因为模型可以拿测试集训练⊙﹏⊙
为什么有的论文放出训练好的模型和测试脚本,但不开源训练代码? 的其他答案 点击这里
1
相关话题
在机器学习模型的训练期间,大概几十分钟到几小时不等,大家都会在等实验的时候做什么?
如何解决 C++ 代码不能打开提示有一个错误的问题?
如何理解attention中的Q,K,V?
请解释下variational inference?
在计算资源有限的情况下,有什么深度学习的选题可以推荐/避免?
TVM 最新发布版本 0.3 有哪些亮点?
有哪些LSTM(Long Short Term Memory)和RNN(Recurrent)网络的教程?
全连接层的作用是什么?
梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?
如何看待KDD'21的文章,异质图神经网络的效果不如简单的GCN、GAT?
前一个讨论
博士最惨能惨到什么程度?
下一个讨论
互联网社交产品的运营人员有哪些心得值得分享?
相关的话题
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
如果百年后深度学习最终有了公认的数学理论作为基础,能解释实验中的各类玄学,那这个理论会长什么样子?
ICLR 2018 有什么值得关注的亮点?
多模态训练,怎么解决不同模态之间差异的问题?
有谁照着论文把 AlphaGo 重现出来了?
如何评价Google发布的第二代深度学习系统TensorFlow?
程序员的产出为什么和投入时间不呈线性相关的关系?
请解释下variational inference?
如何评价FAIR提出的ConvNeXt:CNN匹敌Swin Transformer?
领域自适应需要用到测试集数据,这样的方法有啥意义呢?
如何评价微软PowerShell将支持SSH?
如何评价 PyTorch 团队推出的推荐系统库 TorchRec?
如何减少代码中的if else或者找到代替的方式?
如何评价AlphaGo Zero?
不支持开源还用是什么心理?
如果 Windows10 开源会有什么后果?
CPU和GPU跑深度学习差别有多大?
为什么我写代码时总是手滑把main打成mian?
深度学习方面还有什么Open Problem?
下一代 AI 框架长什么样?
为什么Transformer适合做多模态任务?
编程语言是不是代码越多越逻辑越严谨?
国内外有哪些做小样本学习(Few-Shot Learning)的优秀团队?
如何看待华为1100亿行规模的代码库?
为什么有的论文放出训练好的模型和测试脚本,但不开源训练代码?
深度学习(机器学习)的下一步如何发展?
当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)?
为什么 BERT 的 intermediate_size 这么大?
如何证明数据增强(Data Augmentation)有效性?
深度学习中Attention与全连接层的区别何在?
服务条款
联系我们
关于我们
隐私政策
© 2025-02-12 - tinynew.org. All Rights Reserved.
© 2025-02-12 - tinynew.org. 保留所有权利