首页
查找话题
首页
ICLR 2018 有什么值得关注的亮点?
ICLR 2018 有什么值得关注的亮点? 第1页
1
onlytailei 网友的相关建议:
ICLR 2018已经结束提交,这次ICLR有什么值得圈点之处?
ICLR 2018 有什么值得关注的亮点? 的其他答案 点击这里
1
相关话题
贝叶斯深度学习是什么,和传统神经网络有何不同?
GAN的生成器是怎么产生图片的?
为什么有的论文放出训练好的模型和测试脚本,但不开源训练代码?
为什么softmax很少会出现[0.5,0.5]?
中科院某所研一新生,小样本学习、数据融合、强化学习、图神经网络、资源受限的计算这几个方向选哪个更好?
为什么做GPU计算,深度学习用amd显卡的很少,基本都nvidia?
是不是并不是所有问题都适合用神经网络预测?
是不是对于任意 n×n 大小的围棋棋盘,人类都赢不了 AlphaGo Zero 了?
算法工程师是否应该持续读论文?
如何评价各种关联因素分析算法,尤其是在算法效果对比方面?
前一个讨论
AI领域的灌水之风如何破局?
下一个讨论
知乎上这么多推崇学 Python 入 IT 行的,如果他们学完 Python 这一套找不到工作怎么办?
相关的话题
实体提取任务中使用BERT-CRF时,CRF根据数据统计可以得到转移概率,为啥还要训练呢?
有哪些关于机器学习的真相还鲜为人知?
KL散度衡量的是两个概率分布的距离吗?
《人工智能训练师国家职业技能标准》发布,有哪些值得关注的信息?
新手如何入门pytorch?
NLP 中 prompt learning 有哪些可能的天生缺陷?目前有什么样的方法来解决这样的缺陷?
如何评价CVPR2019程序主席Derek Hoiem的论点:计算机视觉只是记忆,不是智能?
你所在的研究领域里,有哪些工作的结果虽然不是造假,但是是精挑细选出来的?
BERT模型可以使用无监督的方法做文本相似度任务吗?
什么是meta-learning?
卷积神经网络(CNN)的结构设计都有哪些思想?
为什么ViT里的image patch要设计成不重叠?
怎么选取训练神经网络时的Batch size?
如何理解 Swin Transformer 和 Vision Transformer不同任务上的差异?
假如我穿越到2017年第一个提出了Transformer、BERT等模型,我可以保送到清华北大吗?
如何理解深度学习中的deconvolution networks?
DL框架的未来发展,TensorFlow/MXNet/PyTorch, 选哪个?
深度学习图像处理什么时候用到GPU?
人工智能会是泡沫吗?
为什么最近几年 FPGA 变得越发受大家重视了?
视觉算法的工业部署及落地方面的技术知识,怎么学?
PyTorch中在反向传播前为什么要手动将梯度清零?
经过足够长的时间, AlphaGo 的棋谱能收敛到一张上吗?
主动学习(Active Learning)近几年的研究有哪些进展,现在有哪些代表性成果?
在五到十年内,人工智能能复原成人影片中的被马赛克部分吗?
如何评价小米开源的移动端深度学习框架MACE?
深度学习在信息安全的应用有哪些可以关注的人或论文?
从应用的角度来看,深度学习怎样快速入门?
为什么 MobileNet、ShuffleNet 在理论上速度很快,工程上并没有特别大的提升?
深度学习两张3080ti和一张3090ti哪个好?
服务条款
联系我们
关于我们
隐私政策
© 2025-05-09 - tinynew.org. All Rights Reserved.
© 2025-05-09 - tinynew.org. 保留所有权利