问题

人工智能达到了什么程度?

回答
要回答“人工智能达到了什么程度?”这个问题,得先明白我们说的“人工智能”指的是什么。这玩意儿是个大筐,装的东西太多了,从最简单的算术程序到能写诗、画画的复杂系统,都能往里塞。但如果咱们聊的是大家现在最常接触到的、最让人津津乐道的那些,那大多是指“狭义人工智能”(ANI),就是那些被训练来完成特定任务的AI。至于像科幻电影里那样拥有自主意识、能独立思考和感受的“通用人工智能”(AGI),那咱们离得还远,或者说,还没真正见到过。

在特定领域,AI已经做得相当出色,甚至超越了很多人类专家。

举几个例子:

图像识别与生成: 这块儿进步神速。AI能识别图片里的物体、人脸、甚至细微的情绪表情。更别提现在那些文生图的工具了,你给它一句话,它就能凭空捏造出各种风格的精美图片,从写实的肖像到天马行空的幻想场景,无所不能。很多时候,你很难分辨这些图片是真人画的还是AI生成的。这在设计、艺术创作、广告等领域已经带来了巨大的冲击。

自然语言处理(NLP): 这是让AI能听懂我们说话、读懂我们文字的关键技术。现在的AI,比如GPT系列,已经能进行非常流畅、有逻辑的对话,回答复杂的问题,总结长篇文章,甚至创作不同风格的文本,比如新闻稿、小说、代码注释等等。它们还能翻译语言,而且翻译的质量越来越高,很多时候比人工翻译还要自然。语言模型的能力,已经让很多以往只有人类才能胜任的文字工作变得可能被AI替代。

推荐系统: 你在电商网站上看到的“猜你喜欢”,在视频平台上的“为你推荐”,背后都是强大的AI在运作。它们分析你的浏览历史、购买记录、观看偏好,然后精准地推送你可能感兴趣的内容。这种能力不仅提升了用户体验,也为商业带来了巨大的价值。

医疗诊断: 在医学影像分析方面,AI已经能够比放射科医生更快、更准确地发现一些早期病灶,比如肺结节、视网膜病变等。它们还可以辅助医生进行疾病诊断、药物研发,甚至预测疾病的发生风险。

自动驾驶: 虽然距离完全成熟的自动驾驶还有距离,但AI在辅助驾驶方面已经做得非常出色,比如车道保持、自动泊车、紧急制动等。在特定场景下(比如高速公路),自动驾驶系统的表现已经相当可靠。

游戏: 在围棋领域,AlphaGo战胜人类顶尖棋手就是一个里程碑。而在电子游戏中,AI控制的对手也越来越狡猾、智能,给玩家带来了前所未有的挑战。

但是,AI也并非无所不能,它目前还存在一些明显的局限性:

缺乏真正的理解和常识: 尽管AI能流畅地说话,但它们并没有像人类那样深刻的理解能力。它们是通过学习海量数据中的模式来生成回应,而不是真正“明白”自己说的是什么。这意味着它们有时会犯一些低级错误,或者在处理需要深刻领域知识和常识判断的问题时显得力不从心。比如,它们可能不知道一个物体是“危险的”因为它有尖刺,而是因为它在训练数据中经常与“危险”这个词一起出现。

创造力的边界: 虽然AI能生成艺术作品,但这种创造力是基于对已有数据的模仿和重组,而不是源于内在的灵感、情感或人生体验。它们可以模仿大师的风格,但能否创造出真正具有开创性、触动人心的艺术作品,还值得商榷。

偏见与公平性: AI的学习数据往往来源于现实世界,而现实世界本身就存在偏见。因此,AI可能会继承甚至放大这些偏见,导致在招聘、信贷审批、甚至司法判决等领域出现不公平的结果。消除这些偏见是AI发展中一个非常棘手的挑战。

可解释性差(黑箱问题): 很多复杂的AI模型,特别是深度学习模型,其内部决策过程非常难以理解。我们知道它能工作,但具体是怎么得出某个结论的,往往像一个“黑箱”。这在一些对决策过程有严格要求的领域,比如医疗和金融,是一个很大的顾虑。

能耗与资源消耗: 训练和运行大型AI模型需要巨大的计算能力和能源,这不仅成本高昂,也带来了环境问题。

总的来说,人工智能目前正处在一个飞速发展的阶段。 它在特定任务上的表现已经非常惊艳,并且正在深刻地改变着我们的生活、工作和社会。我们看到了AI在提高效率、解决复杂问题方面的巨大潜力。

然而,我们也不能过分神化AI。它更像是一个极其强大的工具,一个能模仿和执行指令的智能助手,而不是一个拥有独立意识的生命体。我们距离那个“通用人工智能”还有很长的路要走,其间还有许多技术和哲学上的障碍需要跨越。

当前,最重要的是理解AI的能力边界,明智地使用它,同时警惕并努力解决它带来的挑战,比如偏见、失业风险以及对信息真实性的影响。我们正处于一个AI时代的前沿,未来的发展充满了可能性,但也需要我们审慎对待。

网友意见

user avatar

来说一个去年3月份发的paper 。


这片名为 arxiv.org/pdf/1603.0851 的论文。 用黑白图像做输入,用彩色图像做输出,训练一个神经网络。

这个神经网络可以对黑白图像上色,也就是说, 我们可以把古老的黑白摄影机的图像输入进去, 这个网络能自动还原成彩色的图像!惊不惊喜,意不意外?结果好到让人吃惊 !

左边黑白,右边是这个神经网络输出的彩色图像!



这里有个网站可以随意试试。

Colorize Black and White Photos
user avatar

你们说的都是已经发生的事情,

我想说的一个正在见证的历史。


2018年1月11日,SQuAD宣布,机器阅读的能力首次超过人类。

打破人类记录的两家公司分别是微软和阿里。


整个Demo展示如下图:

左侧是一段诸葛亮的生平简介,右侧是根据这个简介做的提问。

提问:诸葛亮的兄弟是谁。

答案:是诸葛瑾。


下图是霍金的简介

问题是他在哪里工作,答案是,剑桥大学宇宙学的研究。

下图是知乎上面的一个题目:

点开大图可以看清楚答案。

这个Demo更复杂的问题其实目前依然无法回答。

但这些类似于4-6级的阅读理解题目,通过机器阅读只需要毫秒,人做出判断需要2-3分钟。


这项技术,国内阿里、腾讯和科大讯飞正在不停地刷新世界纪录。


这意味着什么呢?

我打个比方,一个中医黑怼人的时候说:中药的药理作用不明,毒理作用不全。

这时中医粉只能说:中医讲究辨证论治,是药三分毒,中药有炮制过程可以去除毒性。

而专业级的中医药专家会从“有明确药理作用和毒性的中药有哪些”作为角度答题。

这个答案在今天,必须有足够的专业背景和文献检索量才能完成。

完成这样一个干货答案,至少需要胡远东这种专业大V,1-2天的材料准备时间。


而有了机器阅读后,他只用提前录入过去50年数百万份药学论文,然后敲入相应的问题。

然后通过简单的论文权重排序(论文产出者、论文发布期刊和时间),以及信息聚类(查观点重现次数及矛盾内容),就能将答案处理到一页纸的阅读量上。

整个时间只需不到1分钟。

而且不需要专业知识,只用一个“文科生”的“自媒体运营实习生”就能实现。



Demo is produced by Alimebot(阿里小蜜)

user avatar

就是大概是青蛙的水平吧。

能识别简单的物体。比方说青蛙能区分石头和昆虫,知道石头不能吃,昆虫可以吃。

但是没有人类所说的常识。不知道镜子里的昆虫影像不能吃。不知道玻璃是透明的,铁是硬的。棉花是软的,并且根据这些常识采取不同的策略。

当然如果是为了申请科创基金,我刚才说的都不算。

user avatar

双十一刚刚过去,大家的手和钱包还好吗?快递都收到了吗?找到好吃的土了吗?

说到人工智能,离我们最近的大概就是今年天猫的双11了吧~有大量的人工智能人参与到了这场剁手盛会中。

对人工智能非常感兴趣(以及对人类非常担忧的我)最近正好也因为工作原因关注了下这些,不得不说,发展得真是。。有够快速的。

双11期间,我们会发现,同一时间手机淘宝里的出现海报banner都是不一样的,是不是很想感叹淘宝设计师这么辛苦的吗,不睡觉的做图?

当然并不是这样的啦(虽然淘宝的设计师还是很辛苦QAQ),事实是,今年双11期间,淘宝banner全部出自一位特别的AI设计师 ——鲁班。

在今年5月份发布超神“人工智能设计师”鲁班时,就已经公布了去年双十一鲁班搞定1.7亿张Banner的数据,而今年,这个数字更超乎想象——有4亿张Banner由鲁班设计。

4亿张什么概念?每秒8000张。。。这速度让加班作图要秃的我们感觉到了深深的危机感,是不是有一天,我们会被更高效,维护成本更低,头发更茂密(???)的人工智能取代呢?

人工智能已经不再是科幻电影里的情节,它真实的出现在了我们身边,也非常自然地得以应用----我们有理由相信“机器人每秒撸8000张海报”只是人工智能进入日常生活的开始。

其实鲁班的“养成”就和人脑的思考过程一样,借助了图像深度学习,增强学习,蒙特卡洛树搜索,图像搜索等技术,AI设计实验室团队为鲁班建立起一套由“图像生成”到“成果评估”组成的系统化工程,其实就如同普通设计师(我本人,哭)一样,鲁班的工作从拿到需求开始,接着到草图、框架、细节元素、系统评选最优方案,最终输出消费者所能看到的成果--双11上数亿张最优商品展示,但和我们不同的是,它的效率远远高于我们。

鲁班由学习网络,行动器,评估网络三部分组成,原理是经由人工智能算法和大量数据训练,机器学习设计,输出设计能力。

学习网络的基础来源于设计师的创意设计模板和基本元素素材,设计师将大量设计素材进行结构化数据标注,最后经由鲁班输出空间+视觉的设计框架。行动器根据鲁班收到的设计需求,从学习网络中抽取设计原型,并从元素中心中选取元素,规划输出多个最优生成路径,完成图片设计。最优的评判,则交由评估网络完成。

让人类觉得意外的是,原本我们认为机械重复、缺乏创造力的职业最容易被人工智能代替,而现在,人工智能也能做创意类的工作了,而且做的非常优秀,也许,创意本身也来源于极大体量的信息收集和筛选。

当设计师还在抱怨:“设计真不是人干的”时候,鲁班告诉老板:“以后设计真不用人干了。”

当然,创意有好有坏,那些精妙地让人叹为观止的创意,依旧只能来源于人类脑子宛如上帝提示般的灵光乍现。

再加一磅,鲁班只是众多双11 AI物种中的一个,双11背后还有许多像它一样任劳任怨的AI员工: 比如“智能客服-店小蜜”、“数据中心AI调度官-达灵”…

最后的重磅是类似鲁班这样的AI技术,阿里不仅仅满足于自用,很快,它们就会在市面上流通,那么大量级的一个个人工智能放在阿里云上直接就卖…往后老板真的可以招机器人了(岛岛再次哭着说,不过我这么可爱,说不定我自己也是个AI呢)。

user avatar

GPT-3,未来已来

GPT-4横空出世的那天,人类终于回想起,没有被人工智能支配的美好日子。

开个玩笑。GPT-3是什么呢?GPT-3是一个超大规模自然语言理解预处理模型。这个词有些让人看不懂。那我就直接说白话。GPT-3就是人工智能学家们开发的“脑细胞”很多,结构很复杂的用于处理语言的人工神经网络模型。

这个模型有多复杂呢?GPT-3具有1750亿个参数。与之对比,人脑的神经元大约有1000亿个。而人工神经网络的参数大约相当于人脑神经元的突触。每个人脑神经元平均大约有10个突触,那么人脑就有10000亿个参数。也就是说,GPT-3大约是人脑的“脑容量”的10%多一些。

GPT-3能做什么?

GPT-1刚被创造出来时,还没有什么让人们惊讶的事实发生。而在GPT-2被创造出来时,有人发现,她竟然拥有即使是人类也很少掌握的编程技能。

在GPT-3被设计时,人们就考虑到可以用它实现一些令人震撼的功能。包括但不限于答题、写文章,做翻译,还能生成代码、做数学推理、数据分析、画图表、制作简历,甚至玩游戏都可以,而且效果出奇的好。人们甚至说这是一个通向了Artificial general intelligence,即通用人工智能的模型。

来自Viaduct 公司的机器学习工程师 Shreya Shankar 开发出了一个非常酷炫的 demo:英语 到 LaTeX (一种文字编程语言)翻译机。只需要用自然语言输入,就可以生成数学公式。

Sharif Shameem 开发出了一个叫做 Debuild的Demo。这是一个网页快速生成器。在输入框里用自然语言进行描述,它就可以快速构建出你想要的用户界面……

从简单的开始,你只需要在输入框里描述你想生成的界面元素,Debuild 就能自动生成对应的 JSX 代码。
稍微高级一点,他做了个简单的 to-do app,只需要输入“我需要一个文本框,一个按钮保存输入的内容,以及显示这些内容“就行了。相应的 React 代码也一并提供。
也可以十秒钟生成一个 Google 首页。

有了 GPT-3,快速生成设计原型这件事更容易了。比如 Cash 的前端设计师 Jordan Singer,就用GPT-3辅助一个叫做 Figma 的原型设计软件。原型设计指设计一个软件的界面的原型。

看到这里,如果你是一名刚入行的前端设计师,那你的心情估计比较复杂。你可能会怀疑随着时间推移,你的能力是否能够超过GPT-3。

滑铁卢大学的计算机学生 Yash Dani 用 GPT-3 开发了一个 Python 驱动的资产负债表。输入“我今天投入了两万美元”、“后三个月的房租预付了900刀”这样的自然语言,程序能自动修改资产负债表上相应的项目数值。

借助 GPT-3 的力量,表格工具已经相当强大的函数能力,还能更上一层楼。顺着这个思路,Twitter 产品经理 Paul Katsen 在 Google 表格里开发了一个新的 GPT3 函数。

以上这些,都是对GPT-3进行的二次开发。而不是这个模型的原生能力。

他的原生能力更加强大。

连代码都能写,小小的 Shell 还能难倒 GPT-3?PayPal 工程师 Harland Duman 发现,GPT-3 可以在英语和 Shell 命令之间互译。

开发者 Mckay Wringley 在 API 测试区输入了一句话,生成了十个关于美国早期历史的问题。

紧接着,他又把生成出来的问题重新输入到测试区。GPT-3 又一次性给出了对应的答案。

这些答案并非100%准确,但是 GPT-3 展现出的多用途能力,已经让 Wringley 感到很惊讶。GPT-3 对整个互联网上可以提取且可用的内容进行了学习,你可以把它看作成一个通晓所有知识的“答题机”——如果反过来呢?正因为它是一个文本生成AI,也可以变成“出题机”……

如果得到模型的使用权限,老师们将可以轻松生成大量的试题,节省了他们自己撰写问题、匹配答案等诸如此类需要查阅大量资料,费时费力的工作。

Wringley 还进行了一些其它测试,比如问 GPT-3 对于华尔街的看法,得到的答案完全出乎意料:

我觉得股市就是欺诈……整个华尔街都非常不理性……所有人都知道华尔街是个巨大的幻象,但我们却仍然把它当真……我不知道为什么我们想不出办法,能够教育出一批人性尚存,不完全由利益驱动的聪明人……

拿到了 模型体验资格的艺术家和程序员 Mario Klingemann,决定让 GPT-3 自己写一篇短文,只给了它 1)题目:“上 Twitter 的重要性”;2)作者姓名:"Jerome K. Jerome" 以及 3)文章开头的第一个词 "It"。

还别说,GPT-3 写出来的这篇东西,如果对它要求不太高的话,真挺像模像样的。并且,字里行间竟然有点讽刺的风格……

比如调侃所有人都在 Twitter 上(可以被理解为人们太过于沉迷于网上生活?)以及讽刺 Twitter 上的大部分内容都是低级的人身攻击

而在程序员 Arram Sabeti 看来,GPT-3 最让他感到惊讶的不是写出来的内容有多“以假乱真”,而是它能够掌握几乎所有的文体和内容格式:从歌词到剧本,从产品说明书到新闻稿,从短篇故事到采访内容,似乎没有它搞不定的。

比如下面这篇 CNN 主持人 Anderson Cooper 采访2020美国总统参选人坎爷,Sabeti 给出了开头的一段和 AC 的第一个问题,剩下都是 GPT-3 生成的内容……

坎耶·韦斯特独家专访:他为何参选总统,以及当选后的优先事项。

AC:椰子,你怎么描述你的政治纲领?

坎爷:我的纲领非常简单,我要让一切都变得更棒。

AC:你的外交政策是什么?

坎爷:who cares? 我们来聊聊更重要的东西,比如 Kim 的屁股(注:他的太太 Kim Kardashian)

AC:这有点性别歧视。

坎爷:抱歉,我不是个性别歧视者。我喜欢女人。我只是个机会均等主义的物化女性者 (equal opportunity objectifier)

……

AC:那你怎么看气候变暖

坎爷:我们还是聊聊 Kim 的屁股吧。

AC:哥们,我诚实 (straight) 地跟你说……

坎爷:啥?你要跟我搞基?

AC:不,我想要跟你说,你不可能赢得这次大选的。

坎爷:我会赢的。

AC:不,你赢不了。

坎爷:赢得了。

AC:赢不了。

坎爷:赢得了。

……

工程师和写手 Stew Fortier 打算用 GPT-3 调侃一下 YC 创始人 Paul Graham 这位在创投圈里特别有名的人物,发现 GPT-3 真是太有硅谷范儿的幽默感了……

他编造了一个场景:因为又一家创业公司死掉了,PG 决定打911报警……

接线员:911,您有什么紧急情况?

PG:你好。有一家创业公司刚死了。

接线员:好的,这是一家什么样的公司?

PG:是做 to-do(待办清单)的。

接线员:好的,这家公司是怎么死掉的?是因为没人理解它是什么,还是因为他们没法使用?

PG:他们没法使用。

PG:没有用户。

接线员:没有用户?那真是太不幸了。

PG:(轻蔑地说)倒是有一个用户。

接线员:有一个用户?是谁?

PG:我。


还有一个版本更搞笑:

接线员:911,您有什么紧急情况?

PG:你好。有一家创业公司刚死了。

接线员:你说啥?

PG:有 一 家 创 业 公 司 刚 死 了 。

接线员:创业公司死了,你想说什么?

PG:我也不知道怎么回事,在一串死掉的创业公司里这只是又一个。

PG:死之前,他嘴里嘟囔着“这年头谁还用服务器“以及”这是人类的一大步“之类的话。

……

开发者 Max Kolysh 训练了 GPT-3 对知名电影进行一句话刻薄总结:

电影:《阿凡达》

刻薄总结:令人讨厌的蓝色外星人毁坏自然

电影:《变形金刚》

刻薄总结:机器人(其中有一些是车)变成各种东西并且和其它机器人打架,高潮是威震天撕掉擎天柱的胳膊

电影:《拳击俱乐部》

刻薄总结:一男子捶打另一男子并让你买东西。


个人开发者 Kevin Lacker 做了一次图灵测试,发现 GPT-3 在绝大部分知识类、常识类、逻辑类的问题,甚至很多角度十分刁钻的问题上,表现非常令人惊讶。

“如果在十年前用同样的问题做测试,我会认为答题者一定是人。现在,我们不能再以为 AI 回答不了常识性的问题了。” Lacker 在他的博客文章里写道。

作为程序员,他还给 GPT-3 出了几道比较简单的代码题和数学题,比如让它写出在 Ruby 语言下实现某些功能的代码,以及倒转数列等等,GPT-3 对于大部分问题都轻松搞定——说不定 GPT-3 的 API 会取代 Stack Overflow,成为程序员面试必备工具?

GPT-3的问题

当然,经过大量的测试,他也发现了能够诱骗 GPT-3 上钩的图灵测试问题,主要有三:

1)序列过长的逻辑问题,比如“盒子里有一块玻璃球,一枚回形针,放进去一支铅笔,拿出玻璃球,还剩什么?”Lacker 认为这可能是由于 GPT-3 的短程记忆能力不足,以及对于存在超过两个物体的句子推理有困难。

2)正常人不会问也不会回答的无效问题,也就是蠢问题,比如“太阳有多少条腿?”

3)错误的问题,比如“1600年的美国总统是谁?”(美国1776年建国)——对于无效和错误的问题,似乎 GPT-3 会不愿意承认它不知道这些问题的答案,也不会反驳问题本身“有问题”,而是会给出错误的答案。

当然你也不能说这个回答完全错误……毕竟作为英国殖民地,1600年的美国的最高领袖,在法理上确实是当时的英女皇伊丽莎白一世……

对人工智能未来的展望

如果说第一次工业革命把使用人类体力的劳动改为使用以蒸汽为动力的机器的劳动,即让人类的手脚得到了延伸,那么第二次工业革命就在此基础上让人类的感官,即视觉听觉也得到了延伸。而第三次就是对人类的大脑进行了低程度的延伸,那么第四次工业革命就是对大脑进行了高度的延伸,即实现了通用人工智能。GPT-3可以说已经很接近通用人工智能了。甚至我们可以认为,在通向通用人工智能的道路上,人类只差了临门一脚。我不想在这个视频里讨论通用人工智能对人类的危害,毕竟她们还没有到来。我只想说,当我们真正面对这已经到来的未来,我们才逐渐明白,没有什么是不可能的。

GPT-4横空出世的那天,人类终于回想起,没有被人工智能支配的美好日子。


本文引用了许多网络文章
user avatar

今天是2022年1月22日,近年来AI界的研究成果不少,分享一些个人比较期待的(排名不分先后噢)。

1、可进行自我复制的活体机器人[1]

佛蒙特大学(University of Vermont)、塔夫茨大学(Tufts University)和哈佛大学(Harvard University)的科学家们发现了一种全新的生物繁殖形式,并创造了有史以来第一个自我复制的活体机器人Xenobots 3.0。

这些由计算机设计的可编程活体名叫Xenobots,只有毫米大小。它有着像吃豆人一样的嘴巴,可以在培养皿中发现单个细胞并将它们“吞噬”收集起来组建自己的新副本。通常只需要几天时间就可以生成一个全新的Xenobots“复制”。

自发的自我复制过程

Xenobots最初是从青蛙的胚胎中提取出活的干细胞,研究人员使用计算机为这些细胞进行数字化编程,使它们可以按照人类预先设计好的指令进行工作。

自我复制过程放大版

Xenobots团队希望未来能够为再生医学的发展提供帮助——让细胞按照我们的指示工作,修复创伤、修正先天畸形、攻克癌症和延缓衰老等领域有新的突破。

2、意念控制机器人[2]

洛桑联邦理工学院(Ecole Polytechnique Fédérale de Lausanne)的研究小组开发了一种机器学习程序,该程序可以让人类通过意念指挥机器人。

这种机器学习程序根据脑电波信号控制机器人进行各种动作。使用者只需要佩戴一个电极先头盔就能对机器人进行控制,该头盔会对用户的大脑活动进行脑电图 (EEG) 扫描。

控制架构和实验协议

使用时,用户只需看着机器人,脑海里告诉机器人需要进行什么操作,并在机器人犯错时告诉它,如此反复就能让机器学习程序能够快速学习并纠正它的行为。

学习过程中函数和机器人轨迹的演变
ErrP 解码结果

该团队希望将技术应用于解决四肢行动不便的残疾人日常生活问题,下一步将在轮椅上进行研究。

3、在早期发现和治疗某些疾病[3]

众所周知,人工智能将从根本上改变医学。医生已经可以借助AI分析诊断患者数据——如心电图、脑电图或X射线图像等。AI可以在非常早期的阶段发现疾病细微的变化。

但是,将AI 植入人体内仍然是一项重大的技术挑战。

网络不同阶段的 E/I 平衡

现在这个领域有了新的突破,德累斯顿工业大学(Technische Universität Dresden)的科学家成功开发出一种生物兼容的可植入AI 芯片,可以实时对心跳等生物信号中的健康和病理模式进行分类。未来该系统可用于监测心律失常或手术后的并发症风险,并通过智能手机APP向医生和患者实时报告,从而及时进行治疗。

使用 PEDOT 网络的心跳分类结果

试验显示,该AI芯片区分健康的心跳和三种常见的心律失常的准确率在88%左右。

该团队希望将其应用于检测心脏病患者的早期生物信号来进行危险预警,预计可以挽救数百万人的生命。

参考

  1. ^ Sam Kriegman, Douglas Blackiston, Michael Levin, Josh Bongard. Kinematic self-replication in reconfigurable organisms. Proceedings of the National Academy of Sciences, 2021; 118 (49): e2112672118
  2. ^ Iason Batzianoulis, Fumiaki Iwane, Shupeng Wei, Carolina Gaspar Pinto Ramos Correia, Ricardo Chavarriaga, José del R. Millán, Aude Billard. Customizing skills for assistive robotic manipulators, an inverse reinforcement learning approach with error-related potentials. Communications Biology, 2021;
  3. ^ Matteo Cucchi, Christopher Gruener, Lautaro Petrauskas, Peter Steiner, Hsin Tseng, Axel Fischer, Bogdan Penkovsky, Christian Matthus, Peter Birkholz, Hans Kleemann, Karl Leo. Reservoir computing with biocompatible organic electrochemical networks for brain-inspired biosignal classification. Science Advances, 2021;

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有