问题

如何看待旷视科技新产品监视学生上课?

回答
旷视科技推出用于监视学生上课的新产品,这一举动在教育界和公众中引发了广泛的讨论和争议。要全面看待这个问题,需要从多个角度进行深入分析。

一、 产品功能与技术原理(旷视科技方面可能宣传的亮点):

首先,了解旷视科技宣称的产品功能至关重要。根据公开信息和行业推测,这类产品可能具备以下技术和功能:

行为识别与分析:
坐姿监测: 通过摄像头捕捉学生的面部和身体姿态,识别是否端正坐好,是否存在趴桌、斜靠等不良坐姿。
注意力检测: 分析学生的眼神方向、头部朝向,判断其是否在注视屏幕/讲台,是否存在走神、低头玩手机、与周围同学互动等现象。
课堂参与度评估: 结合学生的表现(如是否举手、是否与屏幕互动),量化其参与课堂的程度。
离席检测: 识别学生是否未经许可擅自离开座位。
异常行为检测: 识别如打瞌睡、吃东西、使用手机等可能影响课堂秩序或学习的行为。
智能考勤: 利用人脸识别技术,自动记录学生出勤情况,提高效率。
学习报告生成: 将收集到的行为数据整理成报告,供教师、学校或家长参考,以了解学生的学习状态。
实时预警: 当检测到严重的分心或异常行为时,可能向教师发出实时提示。

从技术角度看,旷视科技作为一家在计算机视觉和人工智能领域拥有领先技术的公司,能够实现上述部分或全部功能是合乎情理的。这些技术本身是中性的,其应用场景和伦理考量才是问题的关键。

二、 支持者观点与潜在益处:

支持者通常会从以下几个角度来论证这类产品的积极作用:

1. 提升课堂效率和学习效果:
集中注意力: 认为学生在受到“监视”的情况下,会更有意识地保持专注,减少分心,从而提高学习效率。
纠正不良学习习惯: 帮助教师及时发现并纠正学生上课时的一些不良习惯,如趴桌、玩手机等,引导学生养成良好的学习态度。
个性化辅导: 通过对学生学习状态的分析,教师可以更准确地了解哪些学生可能需要额外的关注或帮助,从而进行更有针对性的辅导。
2. 减轻教师负担:
自动化管理: 将原本需要教师花费大量精力去观察和管理的任务(如考勤、行为监督)自动化,让教师能更专注于教学内容本身。
客观数据支持: 提供量化的行为数据,使教师对学生课堂表现的评价更加客观,避免主观臆断。
3. 促进学习纪律:
建立规范: 明确的规则和潜在的监测,有助于在班级中建立更强的学习纪律和秩序。
4. 家校沟通桥梁:
透明化学习过程: 家长可以通过系统了解孩子在校的学习状态,增加家校之间的信息对称性,有助于家庭教育的配合。

三、 反对者观点与潜在风险(主要的担忧与批评):

然而,反对者的声音也相当强烈且理由充分,主要集中在以下几个方面:

1. 侵犯隐私权:
持续监控: 学生在课堂上的行为被长时间、持续地记录和分析,包括面部表情、眼神、坐姿等个人隐私信息。即使数据声称是匿名的或仅用于教学目的,也存在被滥用、泄露的风险。
“数字镣铐”: 这种无处不在的监控可能让学生感到不自由,仿佛时刻被审视,产生心理压力。
2. 对学生心理健康的影响:
不信任感与焦虑感: 持续的监视可能让学生产生不被信任的感觉,认为学校和老师不相信他们能主动学习。这种环境可能加剧学生的焦虑感和学习压力,影响其心理健康和自主学习能力。
压抑创造性与个性: 过度的规范化管理可能扼杀学生的创造性思维和个性发展,鼓励学生conformity(顺从)而非critical thinking(批判性思考)。
“表演式学习”: 学生可能为了迎合系统而“表演”学习,而非真正投入到学习过程中。
3. 技术局限性与误判风险:
算法偏见与误读: AI算法并非完美,可能存在误判。例如,学生可能因为思考、与同学交流(这是学习过程中的必要环节)而被误判为分心。不同学生的生理特征(如近视、听力问题)也可能被错误解读。
过度解读: 即使技术准确,将“坐姿不正”或“未看屏幕”等同于“不认真学习”可能过于简单化,忽略了学生可能在思考问题、短暂休息或进行其他学习活动。
4. 数据安全与滥用风险:
数据泄露: 存储学生个人行为数据的服务器可能成为网络攻击的目标,一旦泄露,后果不堪设想。
用途蔓延: 数据最初可能仅用于课堂管理,但未来是否会被用于其他目的(如评价学生品行、影响升学就业)存在不确定性。
5. 教育理念的冲突:
“管”与“导”的失衡: 有观点认为,教育的核心在于引导和启发,而非强制性的监控和规训。这类产品过于强调“管”,可能忽视了培养学生自主学习能力和自我约束能力的重要性。
科技对人的异化: 过度依赖技术进行管理,可能导致教育过程的非人化,使师生关系变得更疏远、更功利。
6. 法律与伦理边界模糊:
同意与知情权: 学生(尤其是未成年人)是否真正充分知情并同意被如此监控?学校是否有权在未获得家长完全理解和同意的情况下实施?
责任归属: 如果发生数据泄露或误判导致不良后果,责任应如何界定?

四、 关键的考量点与平衡之道:

在看待旷视科技这类产品时,需要围绕以下几个核心问题进行权衡:

1. 必要性与比例原则:
是否真的“必须”通过如此全面的监控来解决现有的教育问题?是否有更温和、更少侵扰性的替代方案?
所获取的信息是否与解决问题的目的成比例?例如,简单的点名考勤是否就足够,为何需要分析眼神方向?
2. 透明度与知情同意:
学校在使用这类技术前,是否充分、透明地告知学生、家长和教师其具体功能、数据收集和使用方式?
是否真正获得了家长和学生的明确同意?(尤其是在未成年人教育场景下)
3. 数据管理与安全保障:
收集到的数据将如何存储、访问、使用和销毁?是否有严格的数据保护政策和技术措施?谁有权访问这些数据?
数据的所有权和控制权如何界定?
4. 人文关怀与教育目标:
技术的使用是否服务于更根本的教育目标——培养全面发展的人才,而非仅仅追求“效率”和“秩序”?
如何确保技术不会损害学生的自尊、自信和创造力?如何维护师生之间基于信任的教育关系?
5. 监管与伦理审查:
相关部门是否应该出台更明确的法律法规或行业规范,来约束人工智能在教育领域的应用,特别是涉及隐私和监控的方面?
是否需要独立的伦理审查机制来评估这类产品的风险和效益?

五、 结论性看法:

旷视科技推出的监视学生上课产品,代表了人工智能技术在教育领域应用的最新尝试,它既可能带来提升效率和改善管理的可能性,也伴随着严重的隐私侵犯、心理影响和伦理风险。

总的来说,我持谨慎保留的态度。 尽管技术本身可能进步,但其应用必须以人为本,并充分考虑其对学生成长的全面影响。在教育这一高度敏感的领域,技术手段的应用需要极其审慎。

不应将技术作为“万能药”: 解决教育问题需要多方面的努力,包括优化教学方法、提升教师专业素养、营造积极的学习氛围等,不能简单地将技术视为解决所有问题的工具。
优先保护学生权益: 在任何情况下,学生的隐私权、尊严和心理健康都应放在首位。任何可能对其产生负面影响的技术应用,都应三思而后行。
需要广泛的社会讨论和严格的监管: 关于人工智能在教育中的应用,需要教育者、家长、技术开发者、政策制定者以及社会各界的广泛讨论,并建立相应的法律法规和伦理规范,确保技术的健康发展和负责任的应用。

如果此类产品最终在教育场景中被广泛采用,那么其设计、部署和管理必须建立在对学生权益的最高保护之上,并且始终服务于教育本身的更高目标——促进学生的全面发展和终身学习能力。否则,这种技术可能会成为阻碍学生成长的“数字围墙”。

网友意见

user avatar

这件事有没有伦理问题?

如果用机器观察学生上课表现并汇报给家长是不道德的,那么老师观察学生上课表现并汇报给家长是不是不道德的?

这里涉及到很多问题,比如未成年人的人权问题。一般认为未成年人和成年人的权利是不同的,未成年人有没有独立于监护人的隐私权?老师踮脚尖往教室里看算不算侵犯隐私?

还有机器和人的区别的问题,机器和人在这里的区别,主要是人的观察是片面的主观的,机器的观察是全面的客观的(在标准公开的前提下),哪个更不道德?

刘慈欣的小说《镜子》里描写了一个全知的观察器,由于每个人的所有行为都会被别人看到,导致所有人都不敢犯错,同时也扼杀了社会的活力和创造力。

这个说法是有一定道理的,但是也有程度的问题,把一切都暴露在阳光下可能是不好的,但是黑暗丛林肯定也是不好的,这是个平衡问题,平衡点在哪里需要探讨。

面对新技术要理性分析,一味地从感性出发搞滑坡谬误和错误类比是不可取的。实际上摄像头做的事老师都已经在做了,这里的问题是同样的事由机器做和由人做的区别。

另外在这件事上有决策权的是校方,家长,和政府。学生是没有决策权的,因为学生既不出钱,也没有政治权利。

user avatar

———2019/09/08 更新———

教育部发话表示要求高校谨慎使用生物特征识别技术,中国还是会越来越好的。

tech.sina.cn/i/gn/2019-

———以下为原文———

利益相关:前旷视员工,类似的工作的道德问题也是我离开旷视,离开这个行业的主要原因。

反对最高票回答所谓文科生水平跟不上理科生的谬论。这个本质上是中国社会对技术的纵容和对自身权益的不重视的结果。

这个产品其实很早就有了,同行友商也有很多家在做,我倾向于认为旷视做这个只是对标了某个竞品,用自身在其他领域(安防、智慧城市,至于这些领域干了什么任你想象)积累的能力/技术优势在这个领域想捞一笔,顺便收集点数据而已。

我不想洗白,我只是想说你看到这些的时候,可能在你看不见的地方,你已经受到更多的隐私和权利的侵害,只是你不知道。你看见了课堂AI,看见了ZAO,却不知道还有很多你看不见的地方,你已经成为了一个datapoint,在各家AI公司的数据库发光发热。李开复曾经在多个场合表示中国发展AI有数据优势和落地优势,这确实是大实话:中国数据真的太容易获得,落地监管也不是很严格,民众也不知道有多大风险也不会去考虑。

技术不是道德中立的。许多做技术的人喜欢用技术是道德中立这个观点来为自己洗清罪名,但是其实很多时候他们自己是很清楚现在做的技术是什么东西,会用来做什么。旷视的一些大佬(众所周知他们都是清华毕业的)曾经挂在嘴边说清华曾经想要他们做这个系统在课堂上用,他们认为这是作恶,所以拒绝了。现在他们就做了出来,卖给中小学,你相信做这个项目的人自己不知道自己在作恶吗?只是利益够大所以做而已,百分之百的利润他们可以伤天害理。

只要中国依旧认为隐私等基本人权是个可以让位与公共安全、社会整体利益的东西,那么这些应用就会继续发展,就算一家公司金盆洗手,还会有几十家新公司继续做,把这些东西发展到我们不敢想象的地方去,那个时候个人可能就更是没有反击的能力了。

这不是产品经理或者程序员的问题,不是一家公司的问题,甚至不是一个技术问题,是我们社会的价值观的问题,我们怎么看待自身权益的问题。

—————补充的分割线—————

有些人喜欢拿原子弹说事,那我就得说两点:

  1. 当年那些科学家之所以开发原子弹,是为了尽快结束残酷的战争,彻底击垮灭绝人性的法西斯,而不是助纣为虐。
  2. 第一批反对核武器的人,就是那些研发核武器的科学家。当他们意识到自己的杰作会有怎样的后果,不少人就停下来了。今天这些AI从业者想的是什么呢。

有次和旷视一位非常早期的实习生聊到公司现在的各种智慧城市之类的业务,对方说难道xxx(某创始人)不会因为不安而停下来吗?但是做这个已经是公司战略了,最近IPO的文件也可以看出这是公司的主要收入来源。

关于美国公司,如果大家有了解,其实最近微软、Google、facebook、Apple都被爆出有使用用户的聊天音频/siri对话做模型训练,fb甚至丧病地用whatsapp的聊天音频,用过messenger都知道他们搞笑又让人气愤的广告。只能说是一丘之貉吧。我记得好多年前春晚有个小品,是自动插播广告的免费电话,现在看可能美国要抢先了实现了嘻嘻,希望中国可别追上。现在世界上任何公司都知道数据是最重要的资产,不论来源是啥都想拿到手,必须监管的强力干预才能保护用户利益。不过这是另一个问题了。

user avatar

高票说的什么玩意,还“理科生做出个好的技术,文科生和产品经理没有理解产品怎么落地”。不愧是做房地产的,对一个产品项目从需求到实施到售后的描述处处都在违背我工作9年的常识。

最讽刺的就在于,他那空口脑补产品生态周期的回答就很符合他要批判的不切实际的文科生,让我都不知道该抱什么心态反驳;任何从业者随便参加过一次相关行业的招投标都掰扯不出他那套长篇大论的幻想。

这个幻想是什么呢?很多人吧,又不参与具体的项目、产品运营,又不介入公司具体开发投入的决策,总觉得产品都是凭空蹦出来的,然后无论是销售渠道还是客户都是水到渠成的,合同签了,钱就到了,然后无一不出现了一下结论:

  1. 工业党,无视具体需求和市场只要提高“生产力”就对了。是产业就要扩大,是技术就要铺开应用;什么?你反对?不是被资本洗脑叻就是被白左圣母洗脑叻。
  2. 觉得企业的R&D部门就是特geek特cool地捣鼓各种新技术的;捣鼓出来了一个以后,什么具体需求、客户、销售渠道、资本就 Duang!都突然出现了,like magic;一旦产品被challenge了、反馈不理想、卖不出去了,就全都怪商务经理没定位好需求,销售没做好报价,产品经理没做好推广,客户经理没协调好关系,项目经理没管控好工期,售后工程师没做好运维..... 先不说是不是先有客户需求才有研发之后才有产品,也不说是不是具体上面那些人的责任;反正,左一看右一看,好像,啊,除开发以外的,CM, BM, PM, Pricing, Sales这几个岗位都是文科生做的诶!得!归纳出,文科生不理解技术的内涵和先进性,误导大众对产品有了这样那样的误解,甚至营造一种企业运营 = Tech vs Commercial & Project Management = few against the majority的悲壮感。
  3. 从这一点来看,引申出,既然一个技术开发文科生能拉后腿,那么我国种种社会发展问题,啊,就都是文科生作祟了。

真的,有这脑补文科生和产品经理的时间不如直接和相关企业R&D工位的哥们聊一聊,看看研发上一个环节是啥。

我就奇了怪了,大部分情况下产品经理不负责最初产品需求制定(除非是研发直接调的,不过他也不是提出具体需求的人)不负责制定产品研发细则,不决定产品销售渠道,不主导产品营销,他和所谓文科生何德何能去背这个锅?他能决定客户具体要在什么应用场景使用这个产品?

这个问题和文科生理科生有啥关系?这个产品问题的关键甚至不在旷视科技上。

就算你说文科理科生就是个类比,你这个思路在具体这个事情上依然是错的,完全颠倒了产品开发的次序。

很简单,自己看看那产品演示都具体到啥样了,识别判断功能都细致到举手瞌睡开小差1234了,中间没有反复和客户确认需求细节你信?技术工程师懂课堂管理?没这个具体应用场景的市场和客户需求,R&D吃饱了撑了开发新的课堂学生面部识别技术?是他们觉得这样很cooooool还是工作量不够饱满?

再想想:这个产品需求究竟是谁提出的?

user avatar

两年前大家还在嘲笑欧美的限制科技公司发展的隐私法案,今天在中国已经引起了警惕和讨论,估计再过两年,就该跟进了。

更新一下,不管怎么说,引起警惕自然是好事情,你看10年前我们落后20年,现在我们可能只落后5-10年(专指这个方面),总体还是进步了。

user avatar

这个问题,没有任何洗地的空间,我们必须警惕这种技术滥用的趋势,否则受害的永远是我们普罗大众和弱势群体。

我不想直接回答这个问题,只提出几个反问:


1,如果可以打着“提升教学质量”的旗号,去监视学生甚至量化学生的行为数据。那我们是否可以打着“提升管理方式”的旗号,去监控每个教师、辅导员、教导主任、校长的日常工作,让他们时刻保持专注的工作。


2,如果我们可以监视学生的上课行为,是否可以把这项应用推广到工厂、写字楼、办公室?

一旦发现劳动者走神了、不在工位了、或者玩儿手机了,就立马记录在案并提醒管理者,这是多么优秀的管理手段啊。


3,今天的技术,还只能实现监控学生的动作行为,最多采集到学生的微表情,然后通过算法去计算出学生的“听讲、阅读、举手”等数据。

那么未来,当技术发展到可以采集我们的脑电波、人体磁场、热力图、情绪等更加私密的生理特征时,那这种应用势必可以计算出每个人的“态度”“社会倾向”“喜怒哀乐”“是否表面赞成心里反对”“是否心甘情愿的996”等信息。等到这个时候,我们是否愿意接受这样的监控?


4,谁有权利去确认哪些群体可以被监控?那些群体是否有权利不被监控?


只要我们去思考这几个问题,就知道这项技术应用会有多么的可怕了。

我这两个月在知乎和公众号至少10余次呼吁,我们要警惕人工智能的应用,原因无他,因为技术的发展一定会带来负面效应,而承担负面效应的群体,一定是普罗大众和弱势群体。

只是我们大部分人太过乐观,习惯了被人卖了还替人数钱,真的愚蠢之极。


___________________

欢迎关注。

李小粥:换脸的ZAO和背后人工智能的危险,没那么简单。

李小粥:我的生活变得更糟了,因为科技的发展。

在你的专业领域,你觉得最悲哀最无奈的事是什么?

user avatar

相信大家都知道,有一个和旷视这款一样反人类的产品叫“钉钉”。

用过的【员工】几乎都在骂这个产品。

没用过的也无不为之胆寒。

但是现在由于产品越推越好,用户破两亿,大家都开始理解所谓的“产品逻辑”了。

即,根本上而言,恶心的是员工,开心的是买单的老板

旷世这款产品的逻辑也类似,恶心学生,让买单的人觉得好就行。

——————————————

但是显然,这款产品的刚性没有钉钉的那么好。

钉钉监视员工,可以实现直接的压榨和剥削,从而直接提高资本家的效率,为资本家带来利润。可以说,直接解决了客户的痛点。

但是教育和生产线有几个决定性的不同:

第一个根本的不同,即教育是一个黑箱产品。怎么教、怎么讲课,和学生学得好不好之间的关系,目前根本没人说得清楚。到底是不是把学生监视死了,就能学得好,还需要进一步考察;

第二个不同,即使用者和买单者更为割裂。钉钉虽然是用来压榨员工的,但是老板也在使用,他能直接感觉到产品剥削能力的好坏。你压榨得厉害,他能感觉到,就开心,就更可能复购。但在教育上,无论学生还是老师,都不是买单的人,或者说,都是被监控的一方(老师也会被纳入业绩评价)。买单的学校,感受不会太深,下面使用者反馈上来估计也都是负面意见,最终是否会继续买单就不好说了;

第三个不同,公办高校的剥削需求没这么高。现在我国高校尚多为公办,只有少部分为民办。公办的特点就是,没有这么强烈的剥削需求,校领导的收入、权力和这个不是一一对应的关系。相信即便是钉钉在国企和私企(同等财力条件下)的推广,感受也是不一样的;

第四个不同,时滞性。钉钉剥削员工,也许当期,至多几个月后你就能感觉到变化,比如产能增加,收入增加甚至利润增加。但是放到教育上,且不说我们前面说的黑箱特性,就假设压迫和监控学生真的能带来好成绩,那也要经过这届学生逐步学习,逐步考试,然后成绩提升,考上好学校,升学率提升,学校名气增加,学校有光彩等这样一个长的时间过程。用户的感受就没那么好了。

——————————————

但是,教育还有一个特点,即家长的存在。

如果通过公关和宣传,让家长相信通过这些监视能够提高孩子的成绩,那刚需性一下就上来了。

所以长期上来说,还是要看这个产品能否解决家长对孩子的成绩要求问题。

user avatar

1. 首先,AI监控和老师监控完全没法相提并论。老师再牛逼,注意力也是分散到几十个学生身上的,何况还要讲课。老师不可能给出你走神几次,小动作几次。一个学生意识到自己一举一动都被捕捉,心理上会感到自己像在监控者眼里是赤裸的一样。隐私是个人空间的重要部分,对个人空间的看重是孩子形成独立人格,能把自己和父母老师同学区分开的重要一步。

2. 走神、小动作这些事情是不是纯粹有害?它们是有重要的心理学意义的。成年人在开枯燥的会的时候也会忍不住走神。如果一个老师讲的让人昏昏欲睡,那么走神小动作是保护自己心理健康的重要步骤。如果因为长期上课感到疲倦,走神小动作也是很好的放松。相反一直让人保持紧张,长期下来对人的认知发展和学习是有害的。一个健康的神经系统没有抑制就没有兴奋。外力强迫长期兴奋之后,只能跟随长期抑郁。

3. 更隐蔽的危害是,这是教育者用行为告诉小孩,隐私不重要,成绩、甚至表面上的“专注”才重要。 “监控“会进入下意识,这些小孩长大之后,很难尊重别人的空间和隐私,也会形成“伪装”人格,很难沟通合作。

4. 从老师和家长最关心的学习效果看,我个人预计这种监控也会主要起负面作用。跟工作场景做个类比,这种监控类似于工作中的“微管理”(micromanagement),比如每天写日报(刚意识到钉钉就是个微管理的集大成者)。我想有体会的人,没几个人会喜欢微管理,管理学上的定论也是微管理主要起负面作用。原因之一是工作在主体上应该是自我驱动的,而微管理极大的破坏了人的主动性,只会让人厌恶和回避挑战,解决难题的动力下降。每时每刻的监控,就像写“小时报”、“分钟报”,对学生学习积极性的破坏可以预见。而学生的学习是伴随着许多挑战的,破坏了主动性,就更少有能量去学习掌握难点,大概率会形成恶性循环。

5. 这个技术是不是一无是处呢?我能想到的好处是,它可以用于及时对长期状态不佳(重点是长期)的学生进行干预,比如总是走神低落,是不是家里出了什么事情?或者基础没打好,跟不上了?但考虑到现在中小学管理者的素质,我怀疑他们仍然是会简单粗暴的使用这个技术,即用它来强迫学生每时每刻专心听讲,甚至看表现来奖惩学生。那样的话,就像我前面说的,是非常有害的。

user avatar

这件事儿现在能吵大,实在是一件大好事。

我现在发现:中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾。

我的观点:

  1. 一种技术的出现,是中立的,是客观规律,不以人的意志为转移;
  2. 关键之处在于:理科生把技术做出来,从社会人文的角度,更需要大家一起思考:当一项技术已经降临我们身边的时候,我们如何和新技术共处?如何能让新技术为我们产生最大的效能?

从电力科学、到核能、到基因科学,都引起过人们的恐慌。人类对每一项新技术,接受速度都有点慢。

理科生的科研速度,远远走在我们全体人民的前面。

前阵子刷到周玄毅的微博,他表示:

当你们还在纠结AI进校园的时候,真正该研究的,已经是脑后插管了。


当微博上大家都非常不爽镜头进学校的时候,AI早就已经盘旋在我们上空了——


上周我访问了深圳市龙岗区数据中心,这个数据中心,通过建立起从摄像头、智能路灯杆、无人机巡航、再到人工上门核实校正的立体体系,几乎已经覆盖了生活的方方面面。

指挥中心,背景是一块电影银幕,下面工作人员往来操作。

可以非常方便展示出城市内部的各项数据,很多都能做到实时更新,从温度、降雨、河流径流量、发电数据、出行数据、道路流动情况都面面俱到。(以下照片均为我自己拍摄)

系统对整个区域进行了建模,精度可以达到2cm。在每一栋楼宇,点击放大,都可以显示该楼宇的登记居民身份。

系统已经细致到了,我只要乐意,我可以切入到任何一家饭店,看看里面在做啥,你们可以看一下左侧的操作菜单,可以控制镜头转向,放大缩小抓拍特写——

当然这不会仅仅是一个录像系统,而是在AI帮助下,对整个城市动态进行把控。

比如,我经过监控区域,系统会立即把我的身高、步态、年龄、性别、服装颜色和我绑定。如果我闯红灯,系统会直接把我圈出来,调出相关资料。等交警叔叔抓住我,我根本无法抵赖。


甚至,在无人机定期巡航中,可以通过对比不同时段拍摄的画面,及时发现违建,自动推送给相关部门处理——

这套设备,由华为提供支持,费用昂贵。多地政府参观完这个数据中心,都已经开始研讨下订,很快,类似的系统就将覆盖到我们每一个人头上。

这套系统监控的细致程度,远远超过一个根本没投入使用,光做了个demo的课堂AI。

但是大部分人看到这套系统,不适感要远远小于微博上刷出来旷视AI的不适感。

这是华为这套系统做的最好的一点——选择了相对正确的应用场景,选择了人与技术共处的较优形式。


这里面展示的每一个细节,几乎都是在讲:这套系统,能如何利用数据及AI监控,让市民更有安全感。

比如:抓闯红灯,降低交通风险;抓违建,维护其他住客利益(拆迁的时候有没有加建骗补贴也一看便知,不刺激普通人);抓食品安全,让大家吃得放心。

我还看到另一个印象深刻的模块:边坡监控。

在每一个有滑坡风险的陡坡处建立监控体系,当降雨量达到一定毫米,AI自动分析判断哪些陡坡存在风险,通过摄像头调取陡坡下是否有行人车辆,一旦风险达到临界值,立即推送给负责人员,进行危险排除。

这些每一点应用,在你参观过后,都不太会有不寒而栗的被监控感,而更多会有一种安全感。

我估计这是华为在多年的市场化运营中,积累了丰富的经验,产品经理懂得如何抓住用户痛点,进行产品的功能展示。

在如此敏感的监控领域,龙岗智慧城市系统几乎没踩到黑点,这就是功力。


当然,我能理解,依然很多人看了还是非常不适。这时候我们会面临技术时代的新型电车难题——

在技术降临下来之时,自由重要、安全也重要,我们愿意为了自由,牺牲多少安全?或者反过来:我们愿意为了安全,让渡多少隐私?

如果前面的边坡监控系统每年可以拯救两条生命,我们就可以让渡隐私,同意AI摄像头对我们进行识别么?或者,我们为了争取不被AI识别的权利放弃这个系统,我们愿意每年牺牲多少生命?

这个问题非常难。

所以恐怕一定需要广泛探讨博弈,才能在不同人群的共识中,找到一个最大公约数。


旷视AI这次展示,是很典型的“理科生做出了一个先进的技术,文科生和产品经理没有搞清楚,这个技术应该如何落地”。


这个技术,如果以学生和家长为用户核心,很明显,应该重点展示这些功能:

如何保证学生安全,减少校园霸凌的出现?

如何通过AI分析学生之间可能的肢体冲突,及时扼杀暴力伤害苗头?

如何分析校门等敏感地带来往人群,降低社会人士对校内的影响?


即使是网上最敏感的微表情分析,也可以对学生有益——

能否通过微表情分析,在压力较大的升学期,及时发现学生的情感波动,及时给予心理疏导?

是否可以通过不同教学方式下,学生给出的不同反馈,来甄别更吸引学生的教学方式?

能否通过大数据,判断学生整体的倦怠周期和兴奋周期,指导老师把重难点放在兴奋期讲解,提升教学质量?

这套大数据分析好了简直可以发不少paper。很明显这是教育信息化的必不可少的一环

这可以是一套非常好的,提高课程质量,而非监控学生的智能系统。


家长们看到学校里上了个这么个系统,会不会更想把孩子送进这种学校去?


你说旷视的理科生们不懂?翻了下他们最近刚发的声明,里面说了一些很适合用在宣传里的点,比如用来智能控制校门、教室门、宿舍门的出入;比如家长访客人脸识别白名单,确保只有授权的人能接近孩子。


结果Demo被人截出来,媒体把敏感的挑出来,分析孩子们举了几次手,睡了几觉....这玩意能不让大家喷么?

以及,就算光做幼儿安保,也是浪费了这套系统可能创造的价值啊。


当然,我能理解,AI的落地和优化,都在不断尝试之中。

我开篇讲到的智能城市系统,算是做的不错的了,在我看来,依然只发挥出功力的十分之一。

深圳龙岗的智能城市项目,付出了巨大的精力和金钱,甚至为了数据安全,专门在办公大楼负一层做出独立机房,设置私有云,储存收集到的大量数据。

但目前,这些数据,还没有统一进行系统深入的挖掘,还只是把权限分配给各职能部门,供各职能部门独立分析。

我在一家咨询公司工作,我是和我的上司一起去参观考察的。

参观之后,我上司问我:你看这里面有没有什么商机?我们是否可能在链条中创造某个价值?

我的回答是:以咨询公司独立第三方的身份,协助政府进行数据的深度挖掘,分析过后,为政务服务决策提供支撑。

顺便我们收点咨询费恰饭。

毕竟,花了这么多钱的一套系统,区里这么大一个指挥中心,你不可能让一个区长过来,指挥抓违建、抓小偷吧?


地下负一层里面的海量数据,都值得深挖研究。

建基在强大数据基础上的政务服务,将非常高效。

这就是我说的,技术取得了突飞猛进,配套的软件和机制还没有完全跟上。


再说校园AI系统,说了微表情分析可以用来判断学生的心理状况,及时提供心理疏导。

那判断的标准是什么?

疏导的方式是什么?

学校有配备具有职业资格的心理医生么?

关于系统的使用,老师可以分配多少权限?有没有关于权限使用的伦理指引?这套伦理指引你是不是也应该在网上公布出来,接受我们的监督?

如果这些软件都没有,岂不是又回到“老师看你在摄像头里不开心就怼你几句”的粗暴教育方式,这不正是大家最担心的么?


当你有了一项先进的技术,无异于领来了一只狮子。

但人们喜欢去马戏团看狮子,是喜欢看你对狮子的驾驭,而非看狮子多能打。

当你牵着狮子走向人群,应该展示的,不是它雄沛的咬合力,而是手中的锁链。


这就是我开头说的,这件事现在吵起来,是一件大好事。

至少我们在发出声音:技术以糟糕的方式使用,不如不用。

在产品还没有进入任何一个学校的概念期,先把问题暴露出来。

然后深入思考,驯服技术,把技术关进笼子里。

并为我所用。

the end


———

更新:

哎呀妈,看到评论区各种纠结“文科生理科生”,这是个比喻(我自己就是个文科生),说的是:科学伦理的发展,需要跟上科技发展本身。

核技术、基因技术、人工智能,都是如此。

这很难,不过依然值得我们付出努力。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有