百科问答小站 logo
百科问答小站 font logo



如何看待旷视科技新产品监视学生上课? 第1页

     

user avatar   eric314 网友的相关建议: 
      

这件事有没有伦理问题?

如果用机器观察学生上课表现并汇报给家长是不道德的,那么老师观察学生上课表现并汇报给家长是不是不道德的?

这里涉及到很多问题,比如未成年人的人权问题。一般认为未成年人和成年人的权利是不同的,未成年人有没有独立于监护人的隐私权?老师踮脚尖往教室里看算不算侵犯隐私?

还有机器和人的区别的问题,机器和人在这里的区别,主要是人的观察是片面的主观的,机器的观察是全面的客观的(在标准公开的前提下),哪个更不道德?

刘慈欣的小说《镜子》里描写了一个全知的观察器,由于每个人的所有行为都会被别人看到,导致所有人都不敢犯错,同时也扼杀了社会的活力和创造力。

这个说法是有一定道理的,但是也有程度的问题,把一切都暴露在阳光下可能是不好的,但是黑暗丛林肯定也是不好的,这是个平衡问题,平衡点在哪里需要探讨。

面对新技术要理性分析,一味地从感性出发搞滑坡谬误和错误类比是不可取的。实际上摄像头做的事老师都已经在做了,这里的问题是同样的事由机器做和由人做的区别。

另外在这件事上有决策权的是校方,家长,和政府。学生是没有决策权的,因为学生既不出钱,也没有政治权利。


user avatar    网友的相关建议: 
      

———2019/09/08 更新———

教育部发话表示要求高校谨慎使用生物特征识别技术,中国还是会越来越好的。

tech.sina.cn/i/gn/2019-

———以下为原文———

利益相关:前旷视员工,类似的工作的道德问题也是我离开旷视,离开这个行业的主要原因。

反对最高票回答所谓文科生水平跟不上理科生的谬论。这个本质上是中国社会对技术的纵容和对自身权益的不重视的结果。

这个产品其实很早就有了,同行友商也有很多家在做,我倾向于认为旷视做这个只是对标了某个竞品,用自身在其他领域(安防、智慧城市,至于这些领域干了什么任你想象)积累的能力/技术优势在这个领域想捞一笔,顺便收集点数据而已。

我不想洗白,我只是想说你看到这些的时候,可能在你看不见的地方,你已经受到更多的隐私和权利的侵害,只是你不知道。你看见了课堂AI,看见了ZAO,却不知道还有很多你看不见的地方,你已经成为了一个datapoint,在各家AI公司的数据库发光发热。李开复曾经在多个场合表示中国发展AI有数据优势和落地优势,这确实是大实话:中国数据真的太容易获得,落地监管也不是很严格,民众也不知道有多大风险也不会去考虑。

技术不是道德中立的。许多做技术的人喜欢用技术是道德中立这个观点来为自己洗清罪名,但是其实很多时候他们自己是很清楚现在做的技术是什么东西,会用来做什么。旷视的一些大佬(众所周知他们都是清华毕业的)曾经挂在嘴边说清华曾经想要他们做这个系统在课堂上用,他们认为这是作恶,所以拒绝了。现在他们就做了出来,卖给中小学,你相信做这个项目的人自己不知道自己在作恶吗?只是利益够大所以做而已,百分之百的利润他们可以伤天害理。

只要中国依旧认为隐私等基本人权是个可以让位与公共安全、社会整体利益的东西,那么这些应用就会继续发展,就算一家公司金盆洗手,还会有几十家新公司继续做,把这些东西发展到我们不敢想象的地方去,那个时候个人可能就更是没有反击的能力了。

这不是产品经理或者程序员的问题,不是一家公司的问题,甚至不是一个技术问题,是我们社会的价值观的问题,我们怎么看待自身权益的问题。

—————补充的分割线—————

有些人喜欢拿原子弹说事,那我就得说两点:

  1. 当年那些科学家之所以开发原子弹,是为了尽快结束残酷的战争,彻底击垮灭绝人性的法西斯,而不是助纣为虐。
  2. 第一批反对核武器的人,就是那些研发核武器的科学家。当他们意识到自己的杰作会有怎样的后果,不少人就停下来了。今天这些AI从业者想的是什么呢。

有次和旷视一位非常早期的实习生聊到公司现在的各种智慧城市之类的业务,对方说难道xxx(某创始人)不会因为不安而停下来吗?但是做这个已经是公司战略了,最近IPO的文件也可以看出这是公司的主要收入来源。

关于美国公司,如果大家有了解,其实最近微软、Google、facebook、Apple都被爆出有使用用户的聊天音频/siri对话做模型训练,fb甚至丧病地用whatsapp的聊天音频,用过messenger都知道他们搞笑又让人气愤的广告。只能说是一丘之貉吧。我记得好多年前春晚有个小品,是自动插播广告的免费电话,现在看可能美国要抢先了实现了嘻嘻,希望中国可别追上。现在世界上任何公司都知道数据是最重要的资产,不论来源是啥都想拿到手,必须监管的强力干预才能保护用户利益。不过这是另一个问题了。


user avatar   tan-ren-rui-19 网友的相关建议: 
      

高票说的什么玩意,还“理科生做出个好的技术,文科生和产品经理没有理解产品怎么落地”。不愧是做房地产的,对一个产品项目从需求到实施到售后的描述处处都在违背我工作9年的常识。

最讽刺的就在于,他那空口脑补产品生态周期的回答就很符合他要批判的不切实际的文科生,让我都不知道该抱什么心态反驳;任何从业者随便参加过一次相关行业的招投标都掰扯不出他那套长篇大论的幻想。

这个幻想是什么呢?很多人吧,又不参与具体的项目、产品运营,又不介入公司具体开发投入的决策,总觉得产品都是凭空蹦出来的,然后无论是销售渠道还是客户都是水到渠成的,合同签了,钱就到了,然后无一不出现了一下结论:

  1. 工业党,无视具体需求和市场只要提高“生产力”就对了。是产业就要扩大,是技术就要铺开应用;什么?你反对?不是被资本洗脑叻就是被白左圣母洗脑叻。
  2. 觉得企业的R&D部门就是特geek特cool地捣鼓各种新技术的;捣鼓出来了一个以后,什么具体需求、客户、销售渠道、资本就 Duang!都突然出现了,like magic;一旦产品被challenge了、反馈不理想、卖不出去了,就全都怪商务经理没定位好需求,销售没做好报价,产品经理没做好推广,客户经理没协调好关系,项目经理没管控好工期,售后工程师没做好运维..... 先不说是不是先有客户需求才有研发之后才有产品,也不说是不是具体上面那些人的责任;反正,左一看右一看,好像,啊,除开发以外的,CM, BM, PM, Pricing, Sales这几个岗位都是文科生做的诶!得!归纳出,文科生不理解技术的内涵和先进性,误导大众对产品有了这样那样的误解,甚至营造一种企业运营 = Tech vs Commercial & Project Management = few against the majority的悲壮感。
  3. 从这一点来看,引申出,既然一个技术开发文科生能拉后腿,那么我国种种社会发展问题,啊,就都是文科生作祟了。

真的,有这脑补文科生和产品经理的时间不如直接和相关企业R&D工位的哥们聊一聊,看看研发上一个环节是啥。

我就奇了怪了,大部分情况下产品经理不负责最初产品需求制定(除非是研发直接调的,不过他也不是提出具体需求的人)不负责制定产品研发细则,不决定产品销售渠道,不主导产品营销,他和所谓文科生何德何能去背这个锅?他能决定客户具体要在什么应用场景使用这个产品?

这个问题和文科生理科生有啥关系?这个产品问题的关键甚至不在旷视科技上。

就算你说文科理科生就是个类比,你这个思路在具体这个事情上依然是错的,完全颠倒了产品开发的次序。

很简单,自己看看那产品演示都具体到啥样了,识别判断功能都细致到举手瞌睡开小差1234了,中间没有反复和客户确认需求细节你信?技术工程师懂课堂管理?没这个具体应用场景的市场和客户需求,R&D吃饱了撑了开发新的课堂学生面部识别技术?是他们觉得这样很cooooool还是工作量不够饱满?

再想想:这个产品需求究竟是谁提出的?


user avatar   zhaotai5541 网友的相关建议: 
      

两年前大家还在嘲笑欧美的限制科技公司发展的隐私法案,今天在中国已经引起了警惕和讨论,估计再过两年,就该跟进了。

更新一下,不管怎么说,引起警惕自然是好事情,你看10年前我们落后20年,现在我们可能只落后5-10年(专指这个方面),总体还是进步了。


user avatar   aaronli-yu-er 网友的相关建议: 
      

这个问题,没有任何洗地的空间,我们必须警惕这种技术滥用的趋势,否则受害的永远是我们普罗大众和弱势群体。

我不想直接回答这个问题,只提出几个反问:


1,如果可以打着“提升教学质量”的旗号,去监视学生甚至量化学生的行为数据。那我们是否可以打着“提升管理方式”的旗号,去监控每个教师、辅导员、教导主任、校长的日常工作,让他们时刻保持专注的工作。


2,如果我们可以监视学生的上课行为,是否可以把这项应用推广到工厂、写字楼、办公室?

一旦发现劳动者走神了、不在工位了、或者玩儿手机了,就立马记录在案并提醒管理者,这是多么优秀的管理手段啊。


3,今天的技术,还只能实现监控学生的动作行为,最多采集到学生的微表情,然后通过算法去计算出学生的“听讲、阅读、举手”等数据。

那么未来,当技术发展到可以采集我们的脑电波、人体磁场、热力图、情绪等更加私密的生理特征时,那这种应用势必可以计算出每个人的“态度”“社会倾向”“喜怒哀乐”“是否表面赞成心里反对”“是否心甘情愿的996”等信息。等到这个时候,我们是否愿意接受这样的监控?


4,谁有权利去确认哪些群体可以被监控?那些群体是否有权利不被监控?


只要我们去思考这几个问题,就知道这项技术应用会有多么的可怕了。

我这两个月在知乎和公众号至少10余次呼吁,我们要警惕人工智能的应用,原因无他,因为技术的发展一定会带来负面效应,而承担负面效应的群体,一定是普罗大众和弱势群体。

只是我们大部分人太过乐观,习惯了被人卖了还替人数钱,真的愚蠢之极。


___________________

欢迎关注。

李小粥:换脸的ZAO和背后人工智能的危险,没那么简单。

李小粥:我的生活变得更糟了,因为科技的发展。

在你的专业领域,你觉得最悲哀最无奈的事是什么?


user avatar    网友的相关建议: 
      

相信大家都知道,有一个和旷视这款一样反人类的产品叫“钉钉”。

用过的【员工】几乎都在骂这个产品。

没用过的也无不为之胆寒。

但是现在由于产品越推越好,用户破两亿,大家都开始理解所谓的“产品逻辑”了。

即,根本上而言,恶心的是员工,开心的是买单的老板

旷世这款产品的逻辑也类似,恶心学生,让买单的人觉得好就行。

——————————————

但是显然,这款产品的刚性没有钉钉的那么好。

钉钉监视员工,可以实现直接的压榨和剥削,从而直接提高资本家的效率,为资本家带来利润。可以说,直接解决了客户的痛点。

但是教育和生产线有几个决定性的不同:

第一个根本的不同,即教育是一个黑箱产品。怎么教、怎么讲课,和学生学得好不好之间的关系,目前根本没人说得清楚。到底是不是把学生监视死了,就能学得好,还需要进一步考察;

第二个不同,即使用者和买单者更为割裂。钉钉虽然是用来压榨员工的,但是老板也在使用,他能直接感觉到产品剥削能力的好坏。你压榨得厉害,他能感觉到,就开心,就更可能复购。但在教育上,无论学生还是老师,都不是买单的人,或者说,都是被监控的一方(老师也会被纳入业绩评价)。买单的学校,感受不会太深,下面使用者反馈上来估计也都是负面意见,最终是否会继续买单就不好说了;

第三个不同,公办高校的剥削需求没这么高。现在我国高校尚多为公办,只有少部分为民办。公办的特点就是,没有这么强烈的剥削需求,校领导的收入、权力和这个不是一一对应的关系。相信即便是钉钉在国企和私企(同等财力条件下)的推广,感受也是不一样的;

第四个不同,时滞性。钉钉剥削员工,也许当期,至多几个月后你就能感觉到变化,比如产能增加,收入增加甚至利润增加。但是放到教育上,且不说我们前面说的黑箱特性,就假设压迫和监控学生真的能带来好成绩,那也要经过这届学生逐步学习,逐步考试,然后成绩提升,考上好学校,升学率提升,学校名气增加,学校有光彩等这样一个长的时间过程。用户的感受就没那么好了。

——————————————

但是,教育还有一个特点,即家长的存在。

如果通过公关和宣传,让家长相信通过这些监视能够提高孩子的成绩,那刚需性一下就上来了。

所以长期上来说,还是要看这个产品能否解决家长对孩子的成绩要求问题。


user avatar   shaohuali 网友的相关建议: 
      

1. 首先,AI监控和老师监控完全没法相提并论。老师再牛逼,注意力也是分散到几十个学生身上的,何况还要讲课。老师不可能给出你走神几次,小动作几次。一个学生意识到自己一举一动都被捕捉,心理上会感到自己像在监控者眼里是赤裸的一样。隐私是个人空间的重要部分,对个人空间的看重是孩子形成独立人格,能把自己和父母老师同学区分开的重要一步。

2. 走神、小动作这些事情是不是纯粹有害?它们是有重要的心理学意义的。成年人在开枯燥的会的时候也会忍不住走神。如果一个老师讲的让人昏昏欲睡,那么走神小动作是保护自己心理健康的重要步骤。如果因为长期上课感到疲倦,走神小动作也是很好的放松。相反一直让人保持紧张,长期下来对人的认知发展和学习是有害的。一个健康的神经系统没有抑制就没有兴奋。外力强迫长期兴奋之后,只能跟随长期抑郁。

3. 更隐蔽的危害是,这是教育者用行为告诉小孩,隐私不重要,成绩、甚至表面上的“专注”才重要。 “监控“会进入下意识,这些小孩长大之后,很难尊重别人的空间和隐私,也会形成“伪装”人格,很难沟通合作。

4. 从老师和家长最关心的学习效果看,我个人预计这种监控也会主要起负面作用。跟工作场景做个类比,这种监控类似于工作中的“微管理”(micromanagement),比如每天写日报(刚意识到钉钉就是个微管理的集大成者)。我想有体会的人,没几个人会喜欢微管理,管理学上的定论也是微管理主要起负面作用。原因之一是工作在主体上应该是自我驱动的,而微管理极大的破坏了人的主动性,只会让人厌恶和回避挑战,解决难题的动力下降。每时每刻的监控,就像写“小时报”、“分钟报”,对学生学习积极性的破坏可以预见。而学生的学习是伴随着许多挑战的,破坏了主动性,就更少有能量去学习掌握难点,大概率会形成恶性循环。

5. 这个技术是不是一无是处呢?我能想到的好处是,它可以用于及时对长期状态不佳(重点是长期)的学生进行干预,比如总是走神低落,是不是家里出了什么事情?或者基础没打好,跟不上了?但考虑到现在中小学管理者的素质,我怀疑他们仍然是会简单粗暴的使用这个技术,即用它来强迫学生每时每刻专心听讲,甚至看表现来奖惩学生。那样的话,就像我前面说的,是非常有害的。


user avatar   wang-you-28 网友的相关建议: 
      

这件事儿现在能吵大,实在是一件大好事。

我现在发现:中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾。

我的观点:

  1. 一种技术的出现,是中立的,是客观规律,不以人的意志为转移;
  2. 关键之处在于:理科生把技术做出来,从社会人文的角度,更需要大家一起思考:当一项技术已经降临我们身边的时候,我们如何和新技术共处?如何能让新技术为我们产生最大的效能?

从电力科学、到核能、到基因科学,都引起过人们的恐慌。人类对每一项新技术,接受速度都有点慢。

理科生的科研速度,远远走在我们全体人民的前面。

前阵子刷到周玄毅的微博,他表示:

当你们还在纠结AI进校园的时候,真正该研究的,已经是脑后插管了。


当微博上大家都非常不爽镜头进学校的时候,AI早就已经盘旋在我们上空了——


上周我访问了深圳市龙岗区数据中心,这个数据中心,通过建立起从摄像头、智能路灯杆、无人机巡航、再到人工上门核实校正的立体体系,几乎已经覆盖了生活的方方面面。

指挥中心,背景是一块电影银幕,下面工作人员往来操作。

可以非常方便展示出城市内部的各项数据,很多都能做到实时更新,从温度、降雨、河流径流量、发电数据、出行数据、道路流动情况都面面俱到。(以下照片均为我自己拍摄)

系统对整个区域进行了建模,精度可以达到2cm。在每一栋楼宇,点击放大,都可以显示该楼宇的登记居民身份。

系统已经细致到了,我只要乐意,我可以切入到任何一家饭店,看看里面在做啥,你们可以看一下左侧的操作菜单,可以控制镜头转向,放大缩小抓拍特写——

当然这不会仅仅是一个录像系统,而是在AI帮助下,对整个城市动态进行把控。

比如,我经过监控区域,系统会立即把我的身高、步态、年龄、性别、服装颜色和我绑定。如果我闯红灯,系统会直接把我圈出来,调出相关资料。等交警叔叔抓住我,我根本无法抵赖。


甚至,在无人机定期巡航中,可以通过对比不同时段拍摄的画面,及时发现违建,自动推送给相关部门处理——

这套设备,由华为提供支持,费用昂贵。多地政府参观完这个数据中心,都已经开始研讨下订,很快,类似的系统就将覆盖到我们每一个人头上。

这套系统监控的细致程度,远远超过一个根本没投入使用,光做了个demo的课堂AI。

但是大部分人看到这套系统,不适感要远远小于微博上刷出来旷视AI的不适感。

这是华为这套系统做的最好的一点——选择了相对正确的应用场景,选择了人与技术共处的较优形式。


这里面展示的每一个细节,几乎都是在讲:这套系统,能如何利用数据及AI监控,让市民更有安全感。

比如:抓闯红灯,降低交通风险;抓违建,维护其他住客利益(拆迁的时候有没有加建骗补贴也一看便知,不刺激普通人);抓食品安全,让大家吃得放心。

我还看到另一个印象深刻的模块:边坡监控。

在每一个有滑坡风险的陡坡处建立监控体系,当降雨量达到一定毫米,AI自动分析判断哪些陡坡存在风险,通过摄像头调取陡坡下是否有行人车辆,一旦风险达到临界值,立即推送给负责人员,进行危险排除。

这些每一点应用,在你参观过后,都不太会有不寒而栗的被监控感,而更多会有一种安全感。

我估计这是华为在多年的市场化运营中,积累了丰富的经验,产品经理懂得如何抓住用户痛点,进行产品的功能展示。

在如此敏感的监控领域,龙岗智慧城市系统几乎没踩到黑点,这就是功力。


当然,我能理解,依然很多人看了还是非常不适。这时候我们会面临技术时代的新型电车难题——

在技术降临下来之时,自由重要、安全也重要,我们愿意为了自由,牺牲多少安全?或者反过来:我们愿意为了安全,让渡多少隐私?

如果前面的边坡监控系统每年可以拯救两条生命,我们就可以让渡隐私,同意AI摄像头对我们进行识别么?或者,我们为了争取不被AI识别的权利放弃这个系统,我们愿意每年牺牲多少生命?

这个问题非常难。

所以恐怕一定需要广泛探讨博弈,才能在不同人群的共识中,找到一个最大公约数。


旷视AI这次展示,是很典型的“理科生做出了一个先进的技术,文科生和产品经理没有搞清楚,这个技术应该如何落地”。


这个技术,如果以学生和家长为用户核心,很明显,应该重点展示这些功能:

如何保证学生安全,减少校园霸凌的出现?

如何通过AI分析学生之间可能的肢体冲突,及时扼杀暴力伤害苗头?

如何分析校门等敏感地带来往人群,降低社会人士对校内的影响?


即使是网上最敏感的微表情分析,也可以对学生有益——

能否通过微表情分析,在压力较大的升学期,及时发现学生的情感波动,及时给予心理疏导?

是否可以通过不同教学方式下,学生给出的不同反馈,来甄别更吸引学生的教学方式?

能否通过大数据,判断学生整体的倦怠周期和兴奋周期,指导老师把重难点放在兴奋期讲解,提升教学质量?

这套大数据分析好了简直可以发不少paper。很明显这是教育信息化的必不可少的一环

这可以是一套非常好的,提高课程质量,而非监控学生的智能系统。


家长们看到学校里上了个这么个系统,会不会更想把孩子送进这种学校去?


你说旷视的理科生们不懂?翻了下他们最近刚发的声明,里面说了一些很适合用在宣传里的点,比如用来智能控制校门、教室门、宿舍门的出入;比如家长访客人脸识别白名单,确保只有授权的人能接近孩子。


结果Demo被人截出来,媒体把敏感的挑出来,分析孩子们举了几次手,睡了几觉....这玩意能不让大家喷么?

以及,就算光做幼儿安保,也是浪费了这套系统可能创造的价值啊。


当然,我能理解,AI的落地和优化,都在不断尝试之中。

我开篇讲到的智能城市系统,算是做的不错的了,在我看来,依然只发挥出功力的十分之一。

深圳龙岗的智能城市项目,付出了巨大的精力和金钱,甚至为了数据安全,专门在办公大楼负一层做出独立机房,设置私有云,储存收集到的大量数据。

但目前,这些数据,还没有统一进行系统深入的挖掘,还只是把权限分配给各职能部门,供各职能部门独立分析。

我在一家咨询公司工作,我是和我的上司一起去参观考察的。

参观之后,我上司问我:你看这里面有没有什么商机?我们是否可能在链条中创造某个价值?

我的回答是:以咨询公司独立第三方的身份,协助政府进行数据的深度挖掘,分析过后,为政务服务决策提供支撑。

顺便我们收点咨询费恰饭。

毕竟,花了这么多钱的一套系统,区里这么大一个指挥中心,你不可能让一个区长过来,指挥抓违建、抓小偷吧?


地下负一层里面的海量数据,都值得深挖研究。

建基在强大数据基础上的政务服务,将非常高效。

这就是我说的,技术取得了突飞猛进,配套的软件和机制还没有完全跟上。


再说校园AI系统,说了微表情分析可以用来判断学生的心理状况,及时提供心理疏导。

那判断的标准是什么?

疏导的方式是什么?

学校有配备具有职业资格的心理医生么?

关于系统的使用,老师可以分配多少权限?有没有关于权限使用的伦理指引?这套伦理指引你是不是也应该在网上公布出来,接受我们的监督?

如果这些软件都没有,岂不是又回到“老师看你在摄像头里不开心就怼你几句”的粗暴教育方式,这不正是大家最担心的么?


当你有了一项先进的技术,无异于领来了一只狮子。

但人们喜欢去马戏团看狮子,是喜欢看你对狮子的驾驭,而非看狮子多能打。

当你牵着狮子走向人群,应该展示的,不是它雄沛的咬合力,而是手中的锁链。


这就是我开头说的,这件事现在吵起来,是一件大好事。

至少我们在发出声音:技术以糟糕的方式使用,不如不用。

在产品还没有进入任何一个学校的概念期,先把问题暴露出来。

然后深入思考,驯服技术,把技术关进笼子里。

并为我所用。

the end


———

更新:

哎呀妈,看到评论区各种纠结“文科生理科生”,这是个比喻(我自己就是个文科生),说的是:科学伦理的发展,需要跟上科技发展本身。

核技术、基因技术、人工智能,都是如此。

这很难,不过依然值得我们付出努力。


user avatar   liu-yan-14-92 网友的相关建议: 
      

稍微多说两句。

其实华人在海外,尤其是欧美社会遇到的很大的一个问题是意识不到种族的重要性。近代以前,中国基本都是处于一个“国家=天下”的状态。这就导致了很多中国人在面对近现代以威斯特法伦体系为基准形成的“民族国家”没有形成一个明确概念,因而在欧美,尤其是在北美(USA/Canada)这种移民国家里生活的时候政治上十分受挫。

不管你承认也好,否认也罢,一个人在美国的社会认定更多地来自于一个人的种族(race)而非阶级(class).以我们最关心的教育为例:大学录取会很大程度上根据你的种族来决定录取标准,而不是社会阶层,更不是政治倾向。不管家境如何,只要你是亚裔,那么你就有大概率碰到录取标准的歧视问题。

在这个前提下,任何一个有智商的人都能够看出来:在美国这个大背景下,在争取自身(个人/族群)权益的过程中,种族的优先级是排在最前面的,其次才是政治倾向和意识形态。因为大多数情况下你在填表的时候,不会让你选你是conservative还是liberal,只会让你选你是“white",“Asian”还是“Hispanic”. 而事实上,只要一个族群能够意识到美国社会种族优先的前提下,内部的政治光谱不仅不是问题,反而是优势,一个很好的例子就是犹太人。

犹太人在美国有多成功想必不用多说。但是犹太人并没有把自己局限在左翼或者右翼,而是通过在不同政治光谱上的发展,成功的让自己的种族在美国取得优势。说右翼,犹太人里面的一大票银行家企业家大家也有所耳闻;说左翼,犹太人中的囧叔,主持界传奇larry king,喜欢谈笑风生的华莱士等等都是业界传奇。这样他们右手掌控了经济和政治力量,左手掌控了舆论和传媒的力量,最终让族群取得成功。可见,以族群利益为先,则族内各个政见派系均受益;以政见利益为先,则族群分崩离析。

反观以叫兽为首的旧华“精英社会活动家“是怎么做的呢?不仅不去积极组织和联络真正能起到作用的政治基本盘(一个越来越壮大的华人群体),反而主动地去做出例如:损害自己族群的利益以换取一小撮外部政治利益(SCA5),试图不断的分裂族群内部力量(亚裔内部细分法案)等等赤裸裸乃至荒唐可笑的背叛种族利益的行为。这种叫兽,如果不是脑子进了水,那就只能是因为政治觉悟和政治水平实在太差,吃枣药丸


----------------------------


断脊之犬,狺狺狂吠。 一开始看到这篇文章我特别震惊,不单单是文章内容,更重要的作者身份:美国百人会会长及首个法学院院长?这样的人竟然说出如此粗鄙之语?不过回想一下,这倒是解决了我一直以来的疑问。

作为一个在美国各个领域都有杰出贡献的种族,作为一个平均收入和学历都远超平均线的种族,作为一个贡献了马友友,关颖珊,刘玉玲等杰出人才的种族,为什么美国华人的政治地位如此的低下?为什么华人的权益总是受到系统性的侵害和歧视?最重要的是,为什么华人,尤其是旧华人及其后代的自我认同和民族荣誉感低到令人发指?现在看来,这些旧华人中的“精英”“社会活动家”政治水准低到不堪占了很大一部分原因

其实在美国待过一段时间的人都明白,各个族群之间有竞争,有合作,也有斗争。但得到尊敬的条件只有一个:拥有力量。这个力量可以是经济力量,可以是知识力量,当然也可以是政治力量。所以这次大选华人主动出击,参与助选的行为我是非常认同的:重要的不是你站在哪一条队,而是展现能够左右选战结果的政治力量,这才是华人赖以发展的基础。相反,任何一种任凭意识形态洗脑而站队的行为都是政治水准低下的弱智行径。

其实稍微看了看叫兽的个人经历,未免有些可怜他。作为一个数次试图否认和摆脱自己华人身份的“社会活动家”,他的“习得性无助”十有八九也是在成长的过程中一步一步建立起来的。在中国崛起,新华人一步步向前的大背景下,他就像一头曾经被锁链拴住的幼象,完全没有意识到力量的对比总是会转化的,而华人政治家真正的基本盘只有自己。在这种情况下,旧华人的社会认知,一种貌似平等实则歧视的社会认知,只会进一步地被抛弃,最终由新华人引领实现真正的社会平等。旧华人畏畏缩缩的活了一百多年,却连美国这个国家的一点基本精神都没有学到,而这些分明写的很清楚:The land of the free and the home of the brave.

毕竟,大清都亡了,也请你们这些遗老遗少们滚回历史的尘埃里吧。 -------------------

原答案

这个所谓教授才真是把“歧视”二字阐释的淋漓尽致。


user avatar   wang-jia-48-31 网友的相关建议: 
      

1、人脸识别技术成熟了吗?

这个技术已经很成熟了。

不知道还没有人记得劳荣枝,就是自1999年后潜逃20年的上古女逃犯。她是法医秦明笔下“人皮牢笼”案的真凶;也是影视剧《红蜘蛛》里的“美女蛇”;更是与法子英合谋杀害7人性命的女魔头。

然后这个人,在2019年11月28日,因为被商场的人脸识别系统识别而被捕。

略过其20年的逃亡轨迹和肢解尸体的残忍,其20年容貌的变化和隐形埋名为什么仍然会被人脸识别抓住呢?

第一个原因,不管是电脑训练的过程,还是在线识别的过程,都需要对人脸的典型特征进行提取,主要包括全局特征、两个眼睛的特征,鼻子的特征、还有两个嘴角的特征。所以担心换了发型后打不开支付宝是多余的,女生留长发后遮住耳朵也不会影响人脸识别。人脸有些特征变化是很微小的。

其次,人随着年龄生长这些部位会有一些变化,会影响到人脸识别,但人眼睛上部的轮廓、鼻子两侧的颧骨、还有嘴角边缘区域的颌骨是不会变的,这也是劳荣枝逃亡20年后,仍被抓到的主要原因,当然另一个主要原因是,劳荣枝逃亡后,仍坚持健身、跳舞等,相貌特征并没有发生巨大变化,要不然凭目前的人脸识别还是很难抓到。

以上也可以看出,如果只是做了双眼皮或者是短时间内脸长胖或者变瘦也并不会影响到人脸识别的结果。因此,目前的人脸识别已经相当完善了。

2、人脸识别的隐私困境

然而为什么没有大范围的应用呢?原因是可能会与法律和道德相冲突。

(比如上图,给不同陌生男性开门这种隐私信息,受到法律的保护,也和失足没有必然联系,甚至可能是该女性的私德,不应该进入人脸识别领域。PS:网上选取的图片,真实性有待考察)

目前如果强制接入全员无差别的人脸识别,并不是一个好时机,因为隐私保护的相关法规并没有特别健全,这个时候接入会造成隐私泄露或滥用安全隐患。明年开始施行的《民法典》对人格权建立了独立的章节,从1032条-1039条都对隐私权进行了规范,但之所以说目前法规没有特别健全,原因有三:

1、《民法典》还尚未真正施行,要到明年的1月1日才开始“转正”。在这种情况下,只能援引原来《民法总则》关于隐私权的法条,一般要求侵犯隐私权的同时具有一定经济利益。隐私权的保护范围过窄。

2、即使《民法典》投入使用,还有很多的补丁需要打,很多的解释需要颁布。法律在于实践,没有实践的法律是谈不上完善的。

3、即使《民法典》投入使用,也没有对人脸识别做出特别的解释和适用。其中1033条:除法律另有规定或者权利人明确同意外,任何组织或者个人不得实施下列行为:…(三)拍摄、窥视、窃听他人的私密活动;(五)处理他人的私密信息;1034条:自然人的个人信息受法律的保护。个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。个人信息中的隐私信息,适用有关隐私权的规定;没有规定的,适用有关个人信息保护的规定。

明眼人想想就知道,上面的那个“失足”截图中,违背了民法典规范的多少种信息类别。姓名、身份证好吗、联系方式、肖像、住址、电话号码(有打码)、行踪信息等等,如果大面积使用人脸技术,会不会导致这种情况渐成普遍?这可谓是现实版本“黑镜”了。

另外,IBM也宣布将不再提供和开发面部识别技术,并指责执法机构或私企滥用面部识别技术的行为了。在IBM首席执行官Arvind Krishna在今年六月致国会的信中表示,IBM将不再提供通用面部识别或分析软件。IBM也将不再开发或研究这项技术。

信中说:由于人工智能的进步,人脸识别在过去十年中得到了极大的进步。与此同时,提供相关技术的通常是缺少监管的私营企业,而这些技术也被证明存在对年龄、种族和族裔方面的偏见,这使得这些工具在执法和安全方面显得不可靠,并为潜在的侵犯公民权利的行为提供了机会。

3、人类识别的授权困境

所以人脸识别技术就算再成熟,真的那么适配目前的社会吗?

需要考虑的是,与用户或者公民签订“人脸识别技术”的是商业公司还是政府?(不会想一声不吭就识别了吧?虽然现实往往是默认地认为“你的隐私没有价值”)如果要求用户签订协议的话,那么对未成年人如何进行保护呢?要知道,《民法典》第20条下调了无民事行为能力年龄的范围,8周岁以下的统称为无民事行为能力人,这部分人的人脸识别协议怎么签?8周岁以上,18周岁以下的人签订的人脸识别协议在法律上又该判定为效力几何的合同?

立法还尚未跟上,又怎么能仓皇普及呢?但若人脸识别有相配套的法律解释、司法解释,就能处理目前很多因为“人和操作者对应不上”的问题,比如未成年人对游戏进行支付和对主播打赏等等。

例如,国家对未成年游戏付费的规定:

《国家新闻出版署关于防止未成年人沉迷网络游戏的通知》规定,网络游戏企业须采取有效措施,限制未成年人使用与其民事行为能力不符的付费服务。未满8周岁的用户,不得为其提供游戏付费服务。8到16周岁的用户,单次充值金额不得超过50元人民币,每月充值金额累计不得超过200元人民币;16到18周岁的用户,单次充值金额不得超过100元人民币,每月充值金额累计不得超过400元人民币。

但上有政策,下有对策,由于现有条件(手机号、身份证授权等)没有办法检测谁是未成年人,所以实践中导致了两个问题:1、未成年使用成年人的身份证进行游戏,充值,最后被家庭发现产生诉争和讼累。2、成年人充值之后假托是家里未成年所为,要求退费。

我们可以假设,如果人脸识别和法律授权、司法解释完全合拍之后,这两种问题当然也就在可能性之外了,但如果人脸识别与未成年民事行为能力这方面的衔接不跟上,怕是很难真正普及,这里面的法律问题还有很多。

总结:人脸识别好技术,法律保护不滥用

目前我国的隐私权、个人信息保护正在越来越好,除了明年实施的《民法典》独立出了人格权编,今年10月1日出台的《个人信息安全规范》以及明年的《民法典》,都对个人的隐私权做了更大的保护,对其他各方使用、存储、买卖用户信息做了更大的限制。假如有一天立法能更上(事实上已经在飞速发展了),人脸识别技术也就真正地成为一个普遍技术了。但还没有去毒之前,随意放出笼子可能会产生一些《黑镜》之恶,这也许就是社会不想看到的了。




     

相关话题

  个人信息的泄露在今天已经严重到了什么地步?对普通人的生活有多大的影响? 
  如何评价此次ofo和小黄人(神偷奶爸)的营销合作? 
  31 省大数据显示,结婚登记连续大幅下滑创 17 年来新低,反映了哪些问题?大家为什么不愿意结婚了? 
  如何评价「Patches are all you need」? 
  如何评价 7 月 31 日一流科技开源的深度学习框架 OneFlow? 
  11 月 18 日微信上线 6 个新表情,你喜欢哪一款? 
  如何看待最近一段时间旷视科技Face++、阿里、小米、京东、科大讯飞和地平线等相继在南京建立研发中心? 
  美剧《血族》里,几个黑客把整个互联网搞瘫痪的可能性有多大? 
  如何评价 9 月 4 日上市的保时捷纯电跑车 Taycan 及 149.8-179.8 万元的售价? 
  神经网络中 warmup 策略为什么有效;有什么理论解释么? 

前一个讨论
SpaceX 赚的钱连一个小房地产开发商都不如,马斯克为什么不做房地产?
下一个讨论
如何看待英国女王正式批准首相鲍里斯的暂停议会请求?





© 2024-05-10 - tinynew.org. All Rights Reserved.
© 2024-05-10 - tinynew.org. 保留所有权利