这其实是很自然的选择。
1. amazon肯定不会全心全意支持TensorFlow。就像我在
如何评价余凯在朋友圈发表呼吁大家用caffe, mxnet等框架,避免使用TensorFlow?说的,amazon是怕TensorFlow的,支持TensorFlow在aws上跑,这是不得以的选择。为了自己不受制,它一定要扶植另一个系统。
2. DSSTNE不是个好选择。且不说DSSTNE的技术是否成熟,首先它的社区知名度就不够高,而mxnet的社区明显要成熟很多。而且一旦amazon选择DSSTNE,那么就意味着失去了Microsoft这个盟友(至少在对付Google这件事上,两者是有共同利益的)。到时候DSSTNE是否能单独刚肛TensorFlow呢?这个基本上很难。
3. amazon花大价钱挖了Alex Smola,李沐也去了amazon。amazon事实上就在mxnet社区掌握了比较大的话语权了,所以,为什么不用呢?
4. 最后,也是最重要的,mxnet本身做的好。mxnet代码是相当规范的,整个设计也很清楚,这些都有利于后续的开发。此外,mxnet的核心的技术人员一直都很活跃,所以mxnet的成长性也很好。
接下来很可能就是微软宣布用mxnet作为默认的引擎了,大家拭目以待吧
强行答一个。首先点32个赞!大概可以永远告别AWS上跑个deep learning要手装一堆东西还不知道efficiency怎么样的年代了。话说以前见大家吐槽mxnet的documentation不清楚可是我觉得document挺棒的啊,虽然确实比不上tensorflow但是比torch舒服多了,清楚易懂还便于develop,之前改过些mxnet代码感觉还是挺轻松愉快的,比起caffe自己轻易什么都不敢动,mxnet给我的感觉是对开发者友好许多。codebase也不算大,上手也方便。有了AWS endorse以后知名度肯定蹭蹭涨,相信在开源社区和tensorflow可以一战。
顺便说点题外话,要是早一个月知道就不会蛋疼兮兮地withdraw掉已经面了一半的这个组的面试了 。。。withdraw之后面试官还是打电话来聊天说是Alex的组简直是要哭瞎了【其实第一场面试居然是Anima来吊打我就该清醒了,当时居然没注意。。。。。找工作的时候口口声声说想做deep learning infra居然withdraw掉了这个组真是哭晕在厕所= = 只盼去fb之后贾神肯收留我。。。。。。
第一次回答献给MXNet. 反正我从2015.9月mx刚发布不久就一直在用了,给我的感受是mx的架构性能社区越来越强大! Amazon的官方支持最直接的结果就是mx会更稳定,文档会更规范,用户会更多。据说后续会有很多对移动端优化的支持,期待!
你问我怎么评价,当然是好评:)
MXNet发展到现在有一年多了,已经是一个相对成熟的项目。我对我们的技术很有信心。MXNet的速度,节省内存,接口灵活性,和分布式效率都是可圈可点的。作为一个由爱好者发起,没有投资的项目,MXNet以前最大的短板是文档和宣传。而Amazon作为大财主以后在这方面可以起到很好的作用。
实际上Amazon对MXNet的支持已经有一段时间了,在Github上提交了很多文档方面的改进。细心的同学可能已经发现最近网站变好看了,拼写错误也少了很多(
MXNet Documents),花钱请的前端和文案就是不一样。总体来说Amazon对开源社区很友好,除了对文档和稳定性的要求严格了一些并没有干涉我们的开发。Code Review还是我们自己在做,是否接收代码也是社区决定的。
在Amazon之前已经有很多公司在默默的用MXNet了,只是没有大肆宣传。比如图森,地平线,搞Mathematica的Wolfram都给MXNet贡献了很多代码。
我对MXNet的前景很乐观,欢迎大家试用,也欢迎贡献代码,众人拾柴火焰高嘛,不知道从哪里下手的同学帮忙完善一下文档也是好的。有意全职做MXNet相关工作的可以联系我们,我们可以帮忙介绍美国Amazon以及北京、深圳各大机器学习Startup的工作:)
P.S. 这篇文章里关于分布式效率的细节比较少,GPU也是K80,比较老。但是我以节操担保线性加速的结果是靠谱的。我们自己在Titan X上用resnet也能跑出类似的效果。大家可以来试试。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有