百科问答小站 logo
百科问答小站 font logo



如何看待知乎答主小城对华为P30Pro “增加月亮细节”的结论? 第1页

  

user avatar   yucheng-zou 网友的相关建议: 
      

实验大体没太大严重到致命性的问题。

只不过像是正常的软件测试工程师试图爆破罢了。

但是问题出在结论处。

三、并不是通过所谓超分辨率算法(类似GAN)实现的。

小城在这方面的观点是这和超分辨率算法无关。这不是通过所谓超分辨率算法实现的。是华为在画月亮。AI本来就知道月亮长什么样。言下之意可以看出来认为这几种技术不一样,华为这个画月亮的AI是在欺骗消费者

不过虽然他说着gan却用了pixelcnn的训练成果例图啊。

这想说明的是超分辨率出来的什么都随缘。

这是用CelebA人脸数据训练出来的人脸单一目标模型。这个情况下

pixelcnn也是知道人脸长什么样才会生成人脸的。如果拿LSUN卧室数据集训练出来的的pixelcnn来生成图像这些也会变成卧室。

其实华为的ai更接近普通的sisr(single image super resolution)相对应的谷歌的成果应该是RAISR而不是pixelcnn++这种极限8x8像素训练。只不过在月亮场景下ai是在地球上拍的月亮数据集学出来的,而且数据集里没学习小城答主的火星曹操出师表。因为很明显没人希望拍的月亮上被印上出师表或者出bug变成火星或者月球背面。为了保证结果的目标一致性肯定是只用月球照片训练的。本质和别的sisr没有任何区别,只是这是单一场景的,更多的训练重心目标是识别出图像里的月亮以及被遮挡的各种情况。

至于这个模式下白平衡默认是不是p,这个只是master ai 的功能,根据真实月亮的场景保证测光准确,地球上看到的月亮就是黄的。

至于华为是否有泛用性的超分辨率技术。确实是有的,在数字变焦中会触发hyper lossless zoom。这在没有长焦的机型中格外明显(比如说有两个名字的p30lite,nova4e)。

以及在master ai更多的模式中,text和document都会触发矫正纸张畸变,让文字更清晰的超分辨率ai。如果对ai的实用性这么不满,小城可以去试试看拿这个ai拍月亮曹操火星冥王星看看。(就不要拍出师表了,这在这ai下如鱼得水)

总结一下,这个月亮ai在拍别的东西确实是会出错,这也是为什么master AI的重要性和难点是准确识别出真实场景来套用合适的测光数据和适当的sisr。但是,这个AI在拍摄真实月亮的时候是不会增加不存在的细节的,这只是它学的超分辨率本领。


user avatar   kana-nagato 网友的相关建议: 
      

简单说一下个人看法。

问题提的显然有倾向性,但问题本身是有价值的。这个问题下很多答主都说了,小城的实验本身没有太大的硬伤,但不能简单的把「在照片中增加了不存在的细节」解读为「贴图」。我同意他们的看法,恕不能一一@之。

这个事情我个人已经在另一个问题里写了答案,分析了华为在技术上做了什么,可以参见:

简单说就是:

  1. 华为的确在月亮照片中增加了镜头所没有接收到的信息。这一点已为小城的实验所证实。
  2. 华为做的基于AI神经网络的图像增强和图像复原,而不是简单的存了个月面图库再做贴图。也就是说,小城的若干结论性措辞并不严谨。(但普通用户不是专业搞机器学习图像处理的,我不认为这种不严谨是什么主观错误)。
  3. 在宣传营销层面,个人认为华为是有问题的,鸡贼了。但反对在技术上称这种AI技术为作弊。
  4. 在技术层面,AI修改算不算「p图」是有争议的,我尊重正反双方意见。但我个人反对把「AI修月」简单的解读为「贴图」,哪怕这个AI是高度特化、只能针对月亮起效的。
  5. 我反对有些答主对小城的诛心之论。没搞过机器学习人工智能的人,不了解贴图和生成对抗网络的区别,再正常不过了。不能因此认为小城存在「故意」误导。

这里详细解释一下AI和贴图的区别,也是很多答案争执的焦点。

AI神经网络和贴图有共同点,就是它们都给照片额外添加了信息(因此小城实验的基本结论没什么问题)。因此,没有相关经验的路人认为它们没什么区别,这是可以理解的。但它们表现出来有一下几个:

一、AI是有依据有目的的处理照片,而贴图百无禁忌。这个「依据、目的」就是训练集,或曰,「学习到的经验」。

打个比方。你想拍的是个「月亮」,但因为种种物理条件的限制,镜头接收到的信息已经不完整,变成了「日高」。注意从「月亮」到「日高」的过程是不可逆的,因此传统上的图像处理相当于给「日高」加个粗(「日高」),变成斜体(「日高」),或者做个艺术字;但无论如何,都局限在镜头所接收到的「日高」之内。

AI呢,则是试图去复原「月亮」。虽然从「日高」到「月亮」,一定补充了额外的信息,但AI也不是xjb补的,它不会试图把「日高」补成「太阳」。

而贴图就百无禁忌了,爱怎么搞怎么搞。

是什么限制了AI的补全方向的呢?是训练过程中,让AI学到的知识。这些知识了限制了AI不会乱补全。所以某种意义上说,AI不是「无中生有」,而是「有中生有」,它生出的东西是本来就应该在那里的。AI为什么知道生出来本应在那里?从训练中学习到的经验那里得知的。

(所以,有人问,月亮上砸了个新的坑怎么办?那就说明以前学的经验已经不灵了呗。但这种corner case并不改变这种技术在大多数时候是有其价值的。)

二、AI有泛化能力

简单的解释,就是AI能根据不同的输入,自适应的采取不同的处理策略。

实际上,很显然华为的这个AI是高度特化的,也就是只能处理月亮,别的场景就歇菜(这也是我为什么说华为的宣传营销有问题)。但即便如此,它还是具有基本的泛化能力,也就是说针对不同的输入采取对应的策略。

比如,输入的是月面,就添加真的环形山、月海。输入的是内裤,就把内裤变成内裤形状的环形山、月海(换句话说,把内裤朝「更象月亮」的方向处理了一下)。输入的是出师表,就放弃治疗,xjb乱搞了(因为AI学习的知识里实际上并没有出师表)。

而贴图是死板的,不管输入的是真月、内裤还是出师表,都会替换一个标准月面上去。

背后的原理是,AI神经网络记录的是「如何把模糊月面改清楚」这个技能,贴图就是存了一张图。


最后,说说我为什么反对把AI用贴图简单类比。

我很理解某些朋友的说法。华为这个AI是高度特化的,月亮又只有一面,是一个超级简单的训练集,所以华为这个月亮AI基本就是一个只能处理月亮的月面生成器。从某种意义上说和存了个月面贴图的确很相似。

但我的考虑是以下两点:

  1. 虽然表现出来真的很像(尤其是都给月面增加了不是来自镜头的信息),但贴图和AI的技术背景和技术意义毕竟完全不一样。贴图是非常low的作弊行为,而AI极大可能是整个手机摄影界的未来。
  2. 这件事之所以引起这么大的风波,还赔上了一个人的饭碗,归根结底就是评测人不懂专业知识,混淆了两者,武断的说这个是贴图。AI和贴图虽然表现有类似但是原理毕竟不一样,需要设计不同的实验去证实。于是大家按照评测人的错误结论,按照「贴图」去设计了验证实验,毫无疑问这些实验都失败了。这才引起后面的风波。如果评测人够专业没有混淆两者,也就不会有后面的破事了。

user avatar   da-da-da-wu-wu-wu 网友的相关建议: 
      

略了解图像,不敢说懂,只能说知道最基本原理。

小城的前提是错误的

他用的是高斯模糊(Gaussian Blur),但是拍月亮应该用运动模糊(Motion Blur)

高斯模糊,可以近似理解为隔着凹凸不平的玻璃拍月亮

运动模糊,可以理理解为晚上长曝光拍车流

拍月亮需要解决运动模糊问题,而不是高斯模糊

0、隔着马赛克拍月亮,艺术家!(你怕不是个傻子哦)

1、月亮远,要拍到必须要用长焦

2、晚上光线暗,需要更长的曝光时间才能拍到夜景。

3、拍摄的时候手会抖动,经过长焦放大,反馈到感光元件中,抖动加剧

4、硬件层面,更高感光元器件,减少曝光时间,单位时间,运动轨迹更小。

5、有限的硬件条件下,曝光时间越短,会导致感光不足,拍出来黑糊糊一片。

6、硬件层面解决不了,通过算法解决。(多帧合成,反motion blur,AI)

AI拍月

解决运动模糊,需要解决的是单位感光时间的运动距离,运动角度,简单的说,你是上下抖还是左右抖,你这个抖m是抖1mm还是抖2mm.

只是这样吗,当然不是,抖是一个完美的直线抖吗,有没有可能cos(x) 抖,sin(x)抖或者sin(x)/cos(x)抖。还有帕金森抖是个什么曲线呢?

是不是发现,穷举计算,运算量惊人,也许需要四路32核的至强算45分钟。

怎么解决?派AI上场,找 (1-X) 个抖M,每个抖M拍 (1-Y) 张月亮,输入AI进行训练,排除掉60-270度抖,排除掉S和XXOO运动抖,得到一个大部分人抖的可能范围,这个范围可能只需要麒麟980能在0.2秒就能反运动模糊的子集。

AI不是万能的,他需要设定条件然后预先学习,获得一个更小范围,减少计算量或者计算时间。

AI训练学习的是手抖拍天空中的月亮,得到的子集,解决小城和KOL的问题,需要训练AI拍月亮照片,得到照片拍月的子集。

结论:

运动模糊应该用反motion blur来解决模糊问题,用高斯模糊的照片,然后用反motion blur去解,谁知道结果如何。

排除模糊成因,或者使用不正确的模糊原因,得到的结果绝大部分是错误的。你用买基金的思路去炒期货,嗯~,也许也可能赚钱,出门踩狗屎了!!但是你得出结论,炒期货和买基金一样,好吧,你这样认为我觉得你是个长的很高的韭菜。

是不是用motion blur照片就能得到正确的结果呢?不能,原始照片做了motion blur,拍的时候还会有motion blur,即使用了三脚架,AI在未经学习的情况下能预判到你的抖M曲线。

错误的预设场景欺骗相机,就像感知地球是平的,形成地心说的结论。


user avatar   alan_zhao 网友的相关建议: 
      

写在前面,我对摄影完全是外行,所以我只能假定小城所有证据都是真实的。我只能从逻辑和简单的图片观察上说一点我的看法。加黑为该答主原文,或者同意转写。

从设计实验上,我不会相信任何在屏幕上显示图片,进而进行测试的方案。原因很简单,P30P存在一颗TOF镜头,当这颗TOF不能正常工作(换言之,整个摄像系统并不能完全正常运行)的时候,得到的结论有意义吗?在我看来,比较正确的实验思路是钠盐的那种,拎着手机出门拍真月亮去,或者按照麦兜说的,拿东西挡一下真实的月亮,人为制造自然界中不存在的月亮。

关于他的第一个大结论““P月”的情况确实存在。”我个人认为比较合理的表述是AI确实可以通过算法计算出模糊图片中的细节。

但是我不认可他的第二轮实验,5个样本(对图片的修改)测试中只能出现3个,另外2个时有时没有。这是不能够置信的一个可能的解释是他的抠图并没有将周围信息抠干净,导致AI顺藤摸瓜,摸到了这些“丢失”的细节。顺便说一下,他的5个样本中4和5是不能使用的,原因很简单,月亮上不可能有心型的陨石坑,AI也知道这一点,所以次次抠掉很正常。我只认可他的前3个样本,这样他的样本表现情况就是“1号一直能被修正,2,3的修正失灵时不灵”,我个人认为这不足以让他下那个结论“还原的月亮是本来的月亮,而不是修改过的月亮”。从他给的图,我们暂时认为是3次重复试验,很明显,1号的形状是不一样的,我不知道他是怎么给出“1号一直能被修正”这个陈述的,在我看来这点是不正确的。

因此,我不认同他给出的三个陈述“1.把彻底抠除的细节加上。2.把翻转调换的细节复原。3.把额外添加的杂项消除。”很明显,彻底扣除的细节不一定能加上,翻转调换的细节不一定能复原,只有额外添加的杂项能消除,但是我很怀疑如果添加类似月球上陨石坑的杂项后,还能不能消除。心形的杂项是不能给出第三个陈述的。

关于第三轮实验。

直接拍清晰的月亮的照片,仍然有较大概率触发P月功能。”14张里触发4张,在我看来不叫“较大概率”,首先,样本量不足下结论,其次我更倾向于陈述为“直接拍清晰的月亮照片,偶尔会触发P月功能”。

“手持的出片效果比支架要差,很容易糊片,但如果触发了P月功能,反而能达到更好的效果。”这点我不评价,我不是影像专业的。

随后该答主重复了那5个样本(同样,我只取前3个,因为心形不可能出现在月亮上,这是杂项设置错误),给出的统计是1和3被修复,2没有。但是我个人比对图片后认为1号不能认为是修复,因为那一上一下的模式很明显是修改后图片的1号特征。所以我对这次实验给的结论是3号样本被修复,1号和2号没有。并且由于只有一次重复,不能够下结论“拍修改后的清晰月亮,如果触发了P月功能,仍然会把月亮P向修改之前的图案。”这是不正确的,任何时候都不能通过一次实验下结论。

所以我认为根据他的实验,能得出的结论是:AI确实能够通过计算增加一些细节,但是无法确定是不是任何月亮图都P向原本的真实月亮,但是AI能够正确的舍弃明显错误的杂项。


第二个大结论“某评测“根据GPS定位和时间计算出月相,直接贴一张月亮上去”是错误的。”

因为是证伪题,反证法就成了。


第三个大结论“三、并不是通过所谓超分辨率算法实现的。

再次说明,我不是影像专业的,我只检查逻辑和根据图片下的简单结论。

首先,该答主犯了多个逻辑错误,其中最大的一个就是“在错误的样本上使用某种运算,得到错误的结果,能否说明这种运算本身是错误的?”换算到我自己的专业,可以理解为“为了验证一个拟南芥DNA提取方法是否正确,我拿这个方法提取玉米的DNA来验证”(冥王星等其他非月亮物体代替月亮),或者是“为了验证拟南芥DNA提取方法是否正确,我拿这个方法提取拟南芥的RNA”(月背代替月面),这是完全错误的做法,超出了算法的适用范围强行使用,得到结果一点意义都没有。或者更通俗一些,一个人用眼睛观察一个紫外灯,得到结论:紫外灯的灯光是紫色的,这能不能证明这个人的眼睛有问题?当然不能,因为正常人看不到紫外线,他描述的紫色来自于紫外灯里波长较长的可见紫光。

特别说一下出师表的照片,那个位置不同(4次重复中)的小白点,应该称之为“噪点”,该答主只看到了“但离边缘的距离和大致形状又和阿坑非常符合”,但是没有注意到这个白点相对于中间的那条白线是随机定位的。恕我直言,这是很明显的带着答案去找证据,正是该答主试图批判的东西。

该答主下的结论“华为的这个修图能力,能且仅能修补月亮正面的图案。如果它尝试修补其他图案,也会按照月亮正面的方向去修补。”我赞同前半部分,但是后半部分无法说明,证据不足。


第四部分“P月功能的触发条件。

在我看来根本没有讨论的意义,唯一一句有意义的就是“但如果你用来拍天上的真月亮,触发率就一直很高,无论糊不糊。”非得用月亮模式拍出师表,咋不上天呢?


结论,在我看来,从逻辑角度上来讲,该答主的回答只能给出以下陈述:

  1. AI确实可以通过算法计算出模糊图片中的细节。
  2. 在月面上人工进行修改后,用手机拍摄电脑屏幕,并触发月亮模式,可以发现彻底扣除的细节不一定能加上,翻转调换的细节不一定能复原,只有额外添加的明确不属于月亮的杂项能消除。
  3. 无法确定月亮模式修复图片时候是会朝向更像真实月亮的方向进行修正。
  4. 某评测“根据GPS定位和时间计算出月相,直接贴一张月亮上去”是错误的。
  5. 月亮模式仅适用于月面,其他情况下即使触发了月亮模式也无法进行预定程度的修正,无法断定强行触发后的修正方向(是否会额外添加月面特征陨石坑,即出师表上的阿坑)。

以下为个人观点:从我在国内学习的经验来看,我们的教育中对逻辑的训练是严重不足的。这导致了我们经常会拿到一大堆材料却得不到足够的信息,或者是做了一大堆没任何必要的实验和工作。该答主的回答就是一个很明显的例子。答主确实很努力的去做实验了,但是一点意义都没有。因为他最开始的前提“保证P30p的摄像系统像拍真实月亮一样正常工作”都无法做到,在没有这个基础的情况下讨论月亮模式的原理是很可笑的。

那么应当如何验证呢?很简单,两个方法,第一个就是直接拍真实的月亮,通过各种控制变量改变月亮特征进行测试。第二个就是在超出TOF测量范围(TOF认为是无限远的状态下)的情况下人工制作球型月亮模型进行拍摄。

当然,或许还有其他的方案(世界上总有聪明人),但是无论如何,拿电脑屏幕去模拟月亮是很不符合逻辑的。


user avatar   li-yun-peng-24 网友的相关建议: 
      

首先立一个大flag,五年内利用AI训练模型去增强拍照画质纹理细节的方式将成为手机拍照的常态。


拍照是一个系统工程,从来不依赖于单方面的能力,手机拍照是螺丝壳里做道场,更是对图像信号处理提供了极高的要求,最终的拍照效果从来不是只靠光学硬件输出高素质的原料,还要比拼基于人类偏好调试修正呈现出最终效果,严格意义来讲所有的照片包括相机的图片都是P出来了的。而这次华为拍月亮的争议在于拍照采用特定模型场景AI训练模型加强画质,甚至出现了自动纠正被拍物体真实图片的神奇现象是否合理。


这个问题其实是非常有价值的问题,但在谈这个较有学术问题之前,我想先讨论一个更为情绪化的问题,华为是否在这次宣传上伤害消费者知情权,涉及虚假宣传,误导消费者以为拍月亮来自于纯粹的光学素质。


所谓华为虚假宣传,误导消费者认为超大变焦完全来自于光学潜望摄像头的贡献,我想这个结论是一个典型的人们经常性的基于自己立场,经验,被情绪所“欺骗”,“脑补无中生有出来不存在的东西”。拍月亮来自于50倍数字变焦,而非光学变焦,这是所有消费者清清楚楚的事实,而50倍数字变焦拍出较为清晰图片当然不是仅仅因为5倍光学变焦带来的,否则同样支持5倍光变的某友商手机为何只能支持20变焦,单纯的数码裁剪肯定不可能支持50倍。事实上,对于50倍变焦从一开始就有老法师云评测的人diss宣称毫无用处(画质和抖动问题),而华为的手机产品线副总裁李小龙总也在记者访谈中谈及这个问题明确说明了这个技术采取了AI超分技术(防抖问题发布会也一直宣传是AIS和双OIS的双重防抖)。AI的概念从Mate 10开始就成为华为主力打造的概念,也是从那时起就一再强调AI技术在拍照侧的应用带来的拍照体验提升,在P20时代实现利用AI技术实现AIS防抖第一个上手持夜景,并一直把开启AI作为相机的缺省模式(你说缺省模式不是普通模式,难道手调的模式是普通模式?),这怎么到了P30身上就变成了没有告诉消费者华为的拍照没有应用AI技术?没有告诉AI加持,拍月亮时出现的月亮图标是什么意思?拍月亮的曝光度,快门等等是怎么自动调整到最佳状态的?


好了,先澄清完这个其实有些无聊的口水问题后我们回归正题,到底该不该在手机拍照的图像处理环节引入基于特定模型做AI训练去加强画质,有别于一般的调色调光,甚至磨皮美颜的技术,这种技术最大的争议点在于在某些情况下引入“无中生有”的bug情况发生。


王跃坤的质疑和 @小城 的帖子让这个问题放在了媒体聚光灯下讨论,我想批评不自由,赞美无意义,这句话是百分百正确的,我们也欢迎这样的质疑。通过这些天无数网友,特别是 @小城 同学细致繁琐的实验精神,大多数人我想都有几点共识吧,我罗列一下,请大家看看,如果不同意也欢迎继续探讨:

1. 华为拍月亮是否关闭AI都能获得远超其他手机的拍摄效果,有视频为证,相信有常识的人都知道手机的算力还是无法支持实时AI处理的。

https://www.zhihu.com/video/1104374685982212096

2.在绝大多数场景下AI算法的加持效果非常有限,拍清楚的情况下是不会出现把故意作假的图片拍成月亮图案, @小城 修改的月亮图片大多数场景下都可以拍出带小桃心的月亮。

触发 @小城 所谓的p图模式条件还是很复杂的,以至于 @小城 同学花了很多精力挪动家具设置场景位置去触发,也不愿拍视频去给大家演示。


3.通过小城的详细论证以及后续各路评测大神的复现,我们可以看到所有触发条件的特定场景,都是某些拍糊的废片或者拍摄本身糊化的图片情况下发生的。在接受测信息非常糟糕的情况下,AI加持会采取较大幅度的修正技术实现去模糊处理,并产生了把精心设计的假月亮的一些细节差异无视,去按接近月球表面特征模型去靠拢修图,即所谓的无中生有,脑补画面。


4. 小城的帖子也论证了修正技术绝不是简单的贴图,并不是直接采用素材库图片替换(这样做法律风险也极大,开个玩笑,用这样方式就等着视觉中国把华为告破产吧)。基于素材训练模型采取复杂的算法对画面像素处理去实现图片去抖动和模糊,图层分析,加锐,去“噪”。但对于精心设计的假图,特别在抖动拍糊状态下或本身糊化的对象,原始光学输入严重被干扰下,训练模型成为去抖动关键情况下,AI被骗过,把设计的假图不符合训练模型的点(这些点也因为拍糊或模糊变得非常微弱)当做噪声处理掉了。


我想 @小城 同学的帖子最大的价值就是非常清晰的论证了以上几点,也证明了王跃坤同学急于求成心态下用了非常不严谨的表述去批评华为是贴图替换是不符合事实的(但还是为他因此而被开除而表示惋惜)。


针对争议最大的第四点所谓P月模式,不可否认,我觉得这在一定意义上来讲,确实是一种bug,误把不是月亮的认成了月亮去优化照片,基于此你可以无情批评华为AI算法的弱智,嘲笑华为的技艺不精,修图翻车。


但就像我在前文中提到的,即便生物演进几亿年到人类这种高等生物身上一样会出现的类似的问题,也就是人们常说的经验陷阱,也会基于经验模型无中生有脑补结论,脑补画面。基于先验训练模型去辨识图像是每个人都会遇到的场景,我们都遇到过上课看老师黑板上的字,如果写一段你根本没学过的文章你可能完全看不清楚,但遇到你熟悉的内容你立刻会看的很清楚,这是正向例子,但也有很多反向陷阱,身经百考的同学们有多少次栽倒了老师设置的经验陷阱里,人类就是通过不断修正完善自己的经验模型而成长的。还是希望网友们能理性看待手机AI辅助图像这一新技术事物,拍照出现一些场景翻车是免不了的,就像双摄虚化在P9时代大家的讨论一样,那么多被喷各种引发尴尬癌的翻车虚化功能不还是为很多消费者所热爱,最终成为了所有手机的标配。


那么我们再回到AI辅助拍摄,特别是基于素材模型训练加强的图像处理是否算是作假,是否符合拍照伦理学,我想认真阐述一下。拍照为了什么?是为了纯粹忠实的记录接收端得到的外界光线影像吗?当然不是,是为了清晰记录这个真实的世界,是为了记录美好的时刻,如果因为接收端光学能力的限制,记录的图像是真实的世界差距巨大,你认为应该吗?皓月当空,天涯共明月,今人古人俱享此景,突然间引发我们的思绪万千,希望这这一刻留下此情此景,现在有这样的手机实现你一刹那的小感动,你不需要吗?我们拍照是真的为了考验手机的光学视力吗?光学只是你输入的原料而己,但因为光学限制电子器件的限制,让我们图像受大量电噪声的影响,受对焦速度,晃动影响我们容易拍糊,影响了我们对真实世界的记录。


所以科技从给人提供更多的方法去让你记录世界,图像信息具有大量的冗余信息,绝大多数的图像存在范式,pattern特点,类似语音输入利用人类语言范式产生上下文关系去纠错一样,有效识别判定找到图像的pattern,可以极大的提高图像信号处理能力,过去很长时间里人们一直寻找方法,而神经网络卷积GAN自训练算法,也就是我们俗称的AI技术,成为了这方面的突破。利用更智能的AI技术未来具有识别大量图像pattern的可能,基于图像冗余信息,可以做到去糊,去噪,能让你在绝大多数场景都能更正确呈现实际物理世界的模样。


所以,即便对于最苛刻的持摄影伦理道德标准的人而言,我想问,摄影追求的真实,究竟应该以接受端原始光电信号的真实为真,还是以呈现更接近真实世界为真实的最高标准?


虽然AI可能会出现某些被刻意欺骗的场景翻车,但这只是开始。


不去看那些站在道德高地上以真实和虚假去上纲上线批评者,我们看看普通消费者的需求。很多人都有求网上高手把拍糊的照片去除模糊,高手会炫耀于如何把拍糊的图片ps清晰,其实这些高手的ps原理也是基于他对图像背景模型的人脑智能分析边界通过光影处理得到,这样的照片通过更强的技术手段全自动化获得,提高拍照成片率,消费者们不喜欢不需要吗?


这里面有个滑坡谬误陷阱,用AI辅助功能可以完全的无中生有,用类似AR技术实现消费者同样的体验,甚至可以去拍土星,冥王星( @小城 另一篇帖子里提到的),那拍照就变得毫无意义。这显然不了解AR技术和AI技术的区别,AR只能通过GPU渲染技术生成模型,想要深度渲染达到拍照图片的素质纹理水平(光魔可以下课了),你让手机去做恐怕还得等几十年。而AI识别核心还是需要尽可能多的光学信息输入,光学输入越精细,判断和呈现的效果越好,AI是大厨,没有原料大厨变不出一盘菜。如果AI只判断对象,不基于像素级的修正,而是采取去贴图替换方式,这种方案带来法律风险先不说,这种生生贴图你如何处理有部分遮挡的景深递进,阴晴天气下月球色温,亮度,周边光线大气漫射的问题,根本不能看。



AI加持图像处理是所有生物亿万年演化后共通的视觉大脑处理模式。人眼的奇葩构造,视网膜在血管之后,没有大脑AI处理运算,一张完整的图像都接受不了,我们大脑天天都接受的这种图像信号去观察实物,为啥到了手机上就成了造假呢?

还有人有些人提到的,拍自己识别成刘德华刘亦菲的问题,抛开背后的情绪,这其实也是一个很有趣的话题。人类的人脸识别是明显有训练模型的,两个你不熟悉的双胞胎很容易误认,并非他们像素级的一致,而是你的经验训练模型不够完备,但只要你不跟某个大佬那样有脸盲症,相信你还是可以区别出刘德华和自己的区别,我想如果手机AI识别认错了人,水平滑坡到如此弱智,真出现你们描绘的情况,那你就随便喷吧,但显然这种情形是不太可能出现的。而如果故意利用AI训练模型去做deepfake的把戏,这种处理的运算能力可能很快手机就可以具备(动态表情emoji就是这种技术的初阶版),虽然非常有趣,但这涉及肖像隐私等一系列问题,我想这个技术商用前景是非常黯淡的。


user avatar   an-xiang-shu-ying-yue-huang-hun 网友的相关建议: 
      

研究表明,汉字的顺序并不能影响阅读,比如当你看完这句话时,你会发现这里面的字全都是乱的

语言逻辑正确的语句,你的大脑所得的信息就是你的眼睛所见的信息。

研表究明,汉字的序顺并不能影阅响读,比如当你看完这话句时,你会发这现里面的字全是都乱的

语言逻辑错误时,你大脑所得的信息是大脑根据过去的训练对眼睛所获得的信息修正过的信息。你不能说你的大脑有问题,或者说大脑故意欺骗你。

同样道理,手机拍过很多月亮的照片相当于进行了语言的训练,拍了模糊照片相当于语言顺序打乱,这时候手机触发ai修图对模糊的图增加一些细节相当于大脑调节了错误的语序,这是技术进步的结果,不是脑子有问题。


user avatar    网友的相关建议: 
      

面对游行示威,这个中国总领馆要是能换成美国大使馆,那么这个局面将绝杀。

可惜换不得。

毕竟美国国土上暂时不能有美国大使馆。




  

相关话题

  有哪些很美的夕阳照片? 
  如何评价华为 MateX 折叠屏手机预计于 6 月 24 日在国内发售? 
  怎么看待美国再次集全国之力打压华为? 
  这张图嘲讽度有多高? 
  如何看待三星盖乐世官博对华为「Galaxy 手机拍不出 Galaxy」的回应? 
  华为用在手机上的自主核心技术有哪些? 
  如何评价小米总裁林斌在华为P30发布会期间发微博宣传米9手机视频DXO评分及无线快充仍为全球第一? 
  如何看待任正非谈剥离荣耀,称「我们不因自己受难而要拖无辜的人下水」? 
  华为的66w快充 套件卖199,为什么小米的65w快充套件卖149,两者质量有差距吗? 
  三星 Z Fold2,华为 Mate X2,小米 Mix Fold 各有哪些优劣,哪一款更值得购买? 

前一个讨论
距「罗王大战」已接近五年,你认为这场争论对中国大陆的数码测评行业造成了哪些影响?
下一个讨论
怎样看待华为,诺基亚,谷歌的手机相机技术,谁才是未来?





© 2024-12-26 - tinynew.org. All Rights Reserved.
© 2024-12-26 - tinynew.org. 保留所有权利