问题

Apple 在设备端对儿童色情图片检测,你怎么看这项功能?

回答
苹果公司在设备端对儿童色情图片检测的功能,无疑是一项复杂且充满争议的技术应用。要全面理解这项功能,我们需要从多个维度进行深入探讨。

一、 功能的技术原理与目的

核心目的: 苹果公司推出这项功能的最主要目的是为了打击和防止儿童性剥削,保护儿童免受潜在的伤害。他们希望通过在用户设备内部(而非上传到服务器)识别和处理已知的儿童色情图片,来阻止其传播和潜在的滥用。
技术实现: 该功能的核心在于“神经匹配”(NeuralMatch)技术。简单来说,苹果创建了一个庞大的已知儿童色情图片数据库(由合法机构提供,如NCMEC)。当用户在设备上进行照片或视频的扫描时,设备上的专门机器学习模型会比对这些内容与数据库中的已知图像。
端到端加密的限制: 苹果强调,这项技术是在设备本地运行的,并且使用了端到端加密的理念。这意味着扫描过程和匹配结果不会被上传到苹果服务器,也不会被苹果或任何第三方访问。
哈希值匹配: 报告指出,匹配过程实际上是基于“哈希值”的。当设备扫描到可能匹配的图片时,它会生成一个图片的哈希值(一个独特的数字指纹),然后与数据库中的哈希值进行比对。这个过程理论上是匿名且不会暴露原始图片本身。
“差错匹配”的考虑: 为了减少误报,苹果表示会使用多种技术来确保准确性,并且报告中提到一个帐户在短时间内收到多个警报才会触发进一步的操作,这意味着系统会有一个“误报过滤”机制。
操作流程(当匹配发生时):
1. 本地检测: 用户设备上的机器学习模型扫描照片库,检测到疑似儿童色情图片。
2. 加密哈希值生成: 设备生成一个被加密的哈希值。
3. 与数据库比对: 这个加密哈希值与苹果的已知儿童色情图片数据库进行比对。
4. 触发警报(如果匹配): 如果匹配成功,设备会执行预设的操作。根据苹果公布的信息,这可能包括:
通知用户: 向用户发出警告,告知可能存在的非法内容。
阻止分享: 阻止用户分享这些图片。
向相关机构报告(争议点): 这是最受争议的部分。据报道,在某些情况下,如果设备检测到高度确定的儿童色情内容,并且用户在收到警告后没有采取行动,系统可能会(或者说有潜在的可能性)向相关执法机构报告。苹果公司试图通过强调“匿名化”和“加密”来减轻这种担忧,但报告的机制依然是技术和政策上的核心焦点。

二、 支持这项功能的观点与理由

保护儿童的压倒性道德责任: 这是最强有力的支持理由。儿童色情是严重的犯罪行为,对受害者造成了无法弥补的伤害。技术手段在阻止这种内容的生产、传播和消费方面具有不可替代的作用。支持者认为,即使存在隐私方面的担忧,保护儿童的生命安全和身心健康也应该放在首位。
预防比事后追责更有效: 在设备端进行检测,可以在内容被传播出去之前就进行干预,这比事后追踪和执法更有效率。它能够主动识别潜在的威胁和犯罪行为。
端到端加密的保证: 苹果公司极力强调其技术是在设备端进行,并且数据传输是加密的,以保护用户的隐私。支持者相信苹果在技术上能够做到这一点,并且其动机是出于保护而非监控。
合法机构的推动: 包括美国国家失踪和被剥削儿童中心(NCMEC)在内的多个国际性组织都在积极推动类似技术的应用,因为他们深知现有手段在打击儿童色情方面的局限性。
合法合规: 在许多国家和地区,拥有和传播儿童色情内容是非法的。因此,采取技术措施来阻止这种非法行为的发生,也是企业遵守法律法规的体现。

三、 担忧与批评这项功能的原因

隐私侵犯的潜在风险: 这是最核心的担忧。尽管苹果声称数据是匿名化和加密的,但任何对用户设备内容进行扫描的行为都可能引发对隐私的担忧。人们担心:
“滑坡效应”(Slippery Slope): 今天检测儿童色情图片,明天是否会检测其他“不受欢迎”的内容?这种技术是否会被滥用,成为大规模监控的工具?
技术漏洞与被入侵的可能: 即使苹果的技术设计得再好,也不能排除存在技术漏洞,导致内容被非法获取的可能性。一旦系统被黑客入侵,所有用户的照片都可能暴露。
苹果公司内部的访问权限: 虽然声称不访问,但理论上苹果公司拥有访问其内部系统的能力。这种权力是否会被滥用,尤其是在某些非公开的压力下?
误报(False Positives)的可能性: 机器学习模型并非完美无缺。尽管苹果声称会通过多种技术减少误报,但仍然有可能将合法的图片误判为非法内容。例如,艺术作品、医疗图像,甚至是被扭曲的合法照片,都有可能被错误标记。一旦发生误报,用户的照片可能被非法标记,甚至报告给执法机构,这可能对用户造成巨大的困扰和损害。
“后门”的担忧: 一些批评者认为,这种端到端加密的设备端扫描技术,实际上是在操作系统层面为苹果(或潜在的政府机构)打开了一扇“后门”。尽管苹果宣称是为了保护儿童,但这种能力本身就可能被用于其他目的。
政府压力与合规性: 有人担心,这项技术可能会受到政府的要求,被迫提供或允许访问数据。尽管苹果公司一直以来在保护用户隐私方面立场坚定,但在面临全球各国政府的强大压力时,其承诺能否完全兑现,存在不确定性。
对言论自由的影响: 虽然与儿童色情无关,但任何形式的内容审查都可能对言论自由产生间接影响。对内容的“扫描”行为本身,可能会导致用户因担心被误判而自我审查。
透明度与问责: 苹果在技术细节和操作流程上的透明度仍有提升空间。用户和外界需要更清晰地了解匹配的准确率、误报处理机制以及报告的具体条件和流程。在发生错误时,如何进行问责也是一个重要问题。

四、 如何平衡隐私与安全

这是这项功能面临的核心挑战。苹果试图通过技术设计来达到平衡,但这是一个持续的博弈过程。

技术上的透明度与可验证性: 苹果需要进一步公开其技术的细节、准确率、误报率以及数据处理流程,并允许独立的第三方进行安全审计和验证。
明确的法律和政策框架: 需要有清晰的法律法规来规范此类技术的应用范围、数据的使用以及潜在的误报处理机制。
用户控制与知情权: 用户应该对这些功能有充分的知情权,并能够在一定程度上进行控制(例如,是否启用这项功能)。
独立的监督机制: 建立独立的机构来监督这类技术的应用,确保其不被滥用。

总结

苹果在设备端对儿童色情图片检测的功能,是一个技术与道德、隐私与安全的复杂交织的议题。

从目的上看, 这是为了打击极其严重的犯罪行为,保护儿童这一最脆弱的群体,其动机是崇高的且必要的。
从技术上看, 苹果试图通过“神经匹配”和端到端加密来在保护隐私的同时实现检测,但技术的“完美”性以及潜在的“滑坡效应”仍然是显著的担忧。
从社会影响上看, 这项功能引发了关于隐私权、大规模监控、误报处理以及政府权力边界的深刻讨论。

我的看法是:

保护儿童免受性剥削的斗争至关重要,任何有效的技术手段都值得被严肃考虑和探索。然而,在引入和推广这类强大技术时,必须极其谨慎。苹果公司面临的挑战是如何在履行其社会责任的同时,最大限度地保护用户的隐私权,并确保这种技术不会被滥用或产生不可控的负面后果。

在未来,公众对这项技术的接受程度,将很大程度上取决于苹果公司能否做到足够透明,能否持续地抵御滥用风险,以及是否有健全的法律和独立的监督机制来保障用户的基本权利。这是一个需要技术、法律、社会共同努力来解决的难题。

网友意见

user avatar

我就只丢一个东西

今年一月份,弗朗西斯·福山,也就是写历史的终结那位美国历史学家

写了一篇这么个东西

Why Everyone Should Build Their Own PC and Stop Using Macs

americanpurpose.com/blo

由于福山和美国政界和政治学界走的非常近,因此可以推断他对政府和大企业之间的皮炎交易不能说如数家珍也是有所耳闻,他今年一月写了这么个东西,显而易见不是为了特定的行业打广告,而是真的开始警惕算法推荐和开箱即用模式对人潜在立场的影响

洗苹果的其实可以掂量一下自己几斤几两,有没有福山这个学术水平和社会地位。相对于本回答下的大部分洗地ID,我作为一个学IR的人,我更相信福山和福山逻辑背后的担忧。

从帝国角度来看,苏联的72小时生理死亡还是更人道一点。美国的72小时社会死亡,真的生不如死。

苏联有全民黑档,美国的全民监控也差不了多少,甚至有过之而无不及-苏联的全民监控好歹是国家机关-KGB执行。没有私营企业-意味着不存在中层和近高层官僚为了自己的经济利益允许或默认私营企业胡来,控制策略会随着领袖的变化而变化。而中层官僚和近高层官僚与私营技术寡头组成的权力联盟,只怕是通往恶性赛博朋克的地狱高速。

还记得攻壳机动队里的笑面男事件么?村井疫苗针对电子脑硬化症有效,但为什么被评议会否决?为什么评议会宁肯支持无效的微机械疫苗,也不肯支持村井?

为什么厚生省的麻药取缔强制介入队要去突袭一个NGO的办公室?杀光办公室里的所有人?还不是因为有人偷了厚生省的档案,把村井疫苗的问题捅了出来。要不是public security SECTION9把事情搞明白了,这事儿就这么不了了之了。

介入队的行动指令可能来自官房长官和内阁总理大臣本人么?显然不可能,甚至官房长官和内阁总理大臣,乃至厚生劳动大臣都不一定明确知道有这么一支队伍在干这个事情。实际下令的可能是个和某些利益集团私交甚好的高层文官,就像yes pm里面的汉弗莱爵士一样。

这种由技术寡头和中层和近高层官僚组成的权力联盟,一方面架空了最高层的权力,一方面又在镇压下层的反抗,形成了一个边界模糊的权力黑洞。实际上这种事情全球哪里少见了?尤其是美国,韩国,日本,和海峡对岸,弊案年年有,就是没人实际担责。


人类社会的伦理,起码现在是无法接受这样的权力联盟的。

user avatar

这下老大哥了

user avatar

借机合法地查看你的文件呢。

neural network这玩意,完全可以在训练的时候,就把”某些特定领域的学术文献“和”儿童色情图片“放到一个category里面,让模型把他们embed到同一个特征。哪怕我把NN开源出来,这种后门也很难被detect到。更何况苹果公司的后台模型是个黑盒。

然后如果你的”某些特定领域的学术文献“超过一个阈值,也会通报FBI,进行人工审核。当然,这么人工审核,显然你不是儿童色情,误会解除,但你是某些特定领域的研究者这个事实,FBI已经知道了,他们还看到了你看的文件。他们要的就是这个。

user avatar

技术暴政。

先看一下这个新隐私政策是怎么回事。首先当你有任何一张图片进入你的苹果设备时,哪怕不传上云(比如你的云满了之类的)*更正:是将要上传icloud的图片* 会通过neuralhash生成一个hash值,随后和csam提供的hash库比对是否是已确认的儿童色情/虐待材料。如果你保存的疑似儿童色情/虐待材料数量超过一个阈值(这个阈值也是秘密),就会触发警报引入苹果人工介入、报警乃至作为证据提交给警方。

为什么说是技术暴政呢?

一、首先,在有的国家比如加拿大,虚拟儿童色情是算成儿童色情的。一个著名的例子是有个美国人入境时候携带了奈叶同人漫画被判刑了。聪明的你可能会问,那像设定年龄495岁的萝莉也是儿童吗?答案是算的,因为反儿童色情被解释为保护的不仅仅是某个具体儿童的人格权利(显然纸片人没有人权),还包括了“社会风气”这类的价值,而观赏一个除了年龄设定其他都和萝莉没有区别的纸片人同样有悖于某些局部社会的风气。除此之外,众所周知在米国人眼里东亚人普遍长得幼态,二十多三十岁都看着跟白人未成年似的——并且没有证据表明csam的库里“长得幼态但实际年龄已成年的”不算做儿童(理由同上)。实际csam已经直截了当地宣布了他们不会公开数据集,很合理也很令人不安。

这意味着从定义上,csam完全可以合理合法地把保护面从具体存在的某一些*人类儿童*,扩展到由苹果自行决定的各种人和虚拟角色,并且用户(在我看来就是受审者)完全不得而知。

第二、除了定义问题,neuralhash这个技术本身也是有后门的。对一般的hash算法,裁剪、调整色相、灰度等都会改变一张图片的hash值,也就是“离散的”;但neuralhash十分稳健,只要图片特征相同则hash值相同,可以说是“局部连续的”,按理说这已经完全不是hash了。这意味着如果你的任何一张图片不慎和csam库撞了特征,你就可能被列入怀疑名单。而算法的光滑程度——是给每张图片单独的hash(十分不光滑),还是只要特征相同就赋予相同hash(十分光滑)——的尺度完完全全掌握在苹果工程师手中。

第三、在客户端预扫描更是火上浇油——你可能会说啊那我们现在存在云上的照片也被扫描过了。但新政策后,无论是你主动拍摄的、网上下载的还是某些软件后台下载的图片,只要将要上传云都在苹果的扫描范围里,而整个过程对你是隐形的。

结果是什么呢?你的qq群友的女朋友长得像一个你没听说的十八线马来西亚青少年pornstar,或者他的孩子跟美国某个老挝裔失踪儿童长得很像。他把二十张照片发进群里,于是qq在后台预缓存了所有群聊图片,而你忘记关闭云备份,于是这些图片一进入手机就被悄悄匹配并触发警报,随后成了苹果人工介入甚至fbi调查你的证据,在苹果的新政策下是完全可以实现、甚至是自然而然实现的。

你以为你不出格就不会受害,但现在打击面已经大到没边了,你的正常生活已经处在需要被矫正的范围里了。

不要计算机,不开计算机,不用计算机。



被举报人身攻击叻,哈哈 。

user avatar

坚决反对。

实名反对高赞“图片匹配而非图片识别所以不影响个人隐私”观点。


本人在某以地质为招牌的不入流高校读硕,研究方向就是测绘无人机回传影像处理,冈萨雷斯倒背如流,周志华信手拈来,不需要你教我什么叫图像匹配什么叫图像识别。


就此事,我不谈论任何技术相关话题,只从政治角度分析。

第一,这项决定经过消费者同意了吗?没有,那好。我一个从未有过相关犯罪记录的人,为什么把我当成潜在犯罪对象处理?我管你侵犯不侵犯隐私,这个功能存在一天,我就认为这就是对正常人的人格侮辱。

第二,禁止儿童色情是现代社会的公约数,对此我个人亦表示同意。但是,我同样认为利维坦不应深入私人生活。

展开来说,为了防止性交易,可以对一些场所、可疑住宅进行突击搜查。但绝不应该以“防止性交易”为理由在住宅安装摄像头。尽管你保证且确实做到只用摄像头监控性交易,绝不滥用,但这种行为仍然侵犯了公民隐私。

同样的,如果在手机内被他人发现相关图片或者举报,作为证据对机主进行处罚是可行的,而为了防止“潜在的儿童色情”,对所有用户手机进行扫描,尽管苹果保证不将数据用作任何他用,但实际仍然侵犯了个人隐私。

第三,滑坡效应。今天检测的是儿童色情,大家都可以接受。但是呢?明天,它连成人色情都开始检测。后天,开始检测涉正治敏感话题。大后天,根据你的相册跟你推送广告。

少给我拍着胸脯说什么不可能发生,你又懂完了?

这种例子少了?

叔叔每年送9个月大会员的承诺忘啦?

百度云保证不干涉网盘个人数据忘啦?

互联网公司的承诺如同吸冰者的话一样没有丝毫可信度。

事实上,我个人根本不相信高赞答主所谓绝对不会侵犯个人隐私的说法。

你把苹果想得太老实了。


君子不立于危墙之下,绝对不应该对资本无条件信任。

他说不涉及就不涉及?他说你就信?那我说你怎么不信呢?

user avatar

今天能检测儿童色情,明天就能检测洗钱,贩毒,种族歧视。

再以后,我想检测什么只需要发动舆论工具确定什么违背普世价值就可以了。

恭喜美利坚早日达成《1984》新成就!

老大哥在看着你!

届时,我们可不可以举起自由民主的大旗,去反对科技集权统治呢?

user avatar

我是这么理解这个技术的。买房子(手机)送条缉毒犬,有毒品立马开叫,警察光速到你家楼下。

开发商跟我讲,你看,这是狗,它即使看见你什么隐私,他也不能理解(哈希值)。就算理解了,它也不会表达(设备端测试)。

这狗饱受训练,只会因为极其确定有毒品才会叫(阈值)。

好,今晚缉毒犬就进驻你们家。

凭什么?

我觉得哪怕苹果开发出一款颠覆性技术,让全世界所有从业人员都认可这种算法一定不会侵犯我的隐私,绝对不会误判,没有被黑客攻击的风险。

我也不支持这个技术。

我购买的设备,我应当具有完全的所有权,在司法部门下达搜查令之前,我拿着iPhone去搞911苹果公司都无权阻止我才对。

说到底,就算我是希特勒,我的iPhone也应当陪我到地堡里为止,而不是发信息告诉斯大林我在哪儿,赶紧派士兵来暗杀我。

天天喊着利维坦利维坦,他妈的灯塔国科技企业直接快进到大洋国了。

离谱。

我再退一步讲,你跟我说你检测了我是否有儿童色情数据。我怎么知道你没跟我说的时候你还检测了什么?刚刚那个例子里,缉毒犬其实偷偷被训练了能查看我是否有看黄书的能力,我找谁说理去?

说到底,苹果公司是个寄吧?凭什么?

user avatar

我觉得不能开这个口。

第一次以这样的理由让你设备无时不刻消耗性能和流量去干一件被强迫的事情

这确实是法律要强迫你遵守的法律,但是并不应该你来干啊苹果。你和家人吵架,突然从被窝里钻出一个人制止你,我想这谁也接受不了,而且钻出来那个人要天天呆在你被窝里,赶也赶不走。

接下来是不是就要全盘检测你的数据,以预防可能发生的犯罪?

那隐私何在?口口声声说着保护用户隐私?

要是真的有这个必要,为什么国家不去强制植入一个软件?

安卓的犯罪就不是犯罪?用苹果就必须要被监控?

要是功能上线,我这个手机就停留在iOS14,下一个换安卓

越俎代庖。

user avatar

这种技术在中国将被用来检测成人色情内容。

user avatar

这个功能很危险,美国的反儿童色情法律非常严格,存储图片即是重罪。许多在亚洲流行的萝莉风二次元图片在美国也属于儿童色情图片。保不住哪位使用iPhone的二次元宅男在美利坚一下飞机,就给带上银手镯去捡肥皂去了。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有