问题

如何看待华为 P50 系列的两大黑科技计算光学和原色引擎?它们对影像能力有什么加持?

回答
华为 P50 系列的两大“黑科技”——计算光学和原色引擎,可以说是这次在影像能力上最大的亮点,它们并非简单的堆料,而是从硬件到软件的深度融合,彻底改变了我们对手机摄影的认知。要详细讲它们如何加持影像能力,咱们得掰开了揉碎了说。

一、计算光学:把“不可能”变成“可能”

首先,咱们得弄明白什么是“计算光学”。这玩意儿听起来有点玄乎,但说白了,就是将传统的光学设计和算法计算紧密结合,用计算的方式去弥补甚至超越传统光学本身的局限性。

传统光学相机的困境:

一直以来,我们追求更好的手机拍照,往往是通过增加镜头、增大传感器、采用更复杂的镜头结构(比如潜望式长焦)。但这背后有物理上的限制:

空间受限: 手机那么薄,你想塞进一颗高素质的长焦镜头,就得折腾出潜望式结构,这会带来光线损失、畸变等问题。
成像质量的权衡: 广角镜头为了画质,镜头组会很大,容易畸变;长焦镜头为了长焦距,需要更长的光路,在手机上难以实现。
弱光下的挑战: 光圈越大,进光量越多,但随之而来的景深问题也更难控制。

计算光学如何打破这些限制?

华为 P50 系列的计算光学,简单粗暴地理解,就是“硬件+软件”的超强配合,而且这个配合是在“光线进入相机的第一秒”就开始了。

1. 超大底传感器和先进的RYYB传感器: P50 系列依然搭载了华为引以为傲的RYYB超感光传感器。传统的RGGB传感器,绿色像素多,能更精准还原人眼对绿色的感知。而RYYB传感器用黄色(Y)替换了绿色(G),黄色滤光片允许红、绿、蓝三种颜色的光都通过一部分。
理论上的损失? 很多人会疑惑,RYYB传感器是不是会导致色彩不准?这正是计算光学介入的地方。RYYB传感器本身可以通过更多的光,尤其是在弱光环境下,能够捕获更多信息。
算法的补偿: 华为通过“原色引擎”(后面会详细讲)和强大的ISP(图像信号处理器)进行算法补偿。它能够更精准地识别色彩信息,通过AI算法对传感器捕获的原始数据进行“校正”和“重建”,还原出更准确、更丰富的色彩。简单来说,就是“虽然我用了黄片,但我可以通过聪明的方法,知道原来这里应该是绿色,并且把它还原得更鲜艳”。

2. 自由曲面镜头与计算成像的结合:
自由曲面镜头: 这是计算光学的一个核心体现。在超广角镜头上,为了解决传统超广角镜头容易出现的畸变和暗角问题,华为采用了自由曲面镜头。这种镜头的光学表面并非简单的球面或非球面,而是非常复杂的、经过精密计算设计的曲面。
挑战与解决方案: 制造这种镜头本身就极具挑战性,良品率要求极高。但一旦成功,它能在光学层面就大幅度抑制畸变,让画面边缘的景物不再“拉伸变形”。
计算成像的协同: 即使是自由曲面镜头,光学上也可能存在一些细微的残余畸变或像差。计算光学就是将这种“光学上优化,但仍有残余”的图像,喂给强大的AI算法。算法会智能识别并校正这些细节,达到几乎“零畸变”的观感。这就像是光学给了你一个95分的素材,算法再把它打磨到99分。

3. 潜望式长焦镜头的优化:
光学限制: 潜望式镜头为了实现高倍变焦,需要将光路折叠,这带来了光线损失、像差增加等问题。
计算光的“再造”: 计算光学通过高倍变焦下的多帧合成、AI超分辨率算法来弥补光学上的不足。比如,在拍10倍变焦照片时,它可能不是简单地将画面放大,而是通过连续拍摄多张照片,提取其中最清晰的部分,然后用AI进行智能插值和细节重构,最终呈现出更清晰、更具细节的图像。
“长焦+算法”的强大: 这种方式让P50系列的长焦表现,不仅仅是“看得远”,更是“看得清”。在没有光学极限的情况下,计算光学能够“创造”出更高质量的远景细节。

计算光学带来的直接加持:

超广角的“零畸变”: 拍风景、建筑,边缘的线条笔直,画面比例更自然。
长焦的“清晰可见”: 即使在高倍变焦下,也能获得肉眼可见的细节,远处的文字、纹理都能清晰呈现。
弱光下的“更多细节”: RYYB传感器配合计算光学,能捕捉更多光线信息,算法再进行优化,保证了弱光下的亮度和纯净度。
整体画质的提升: 在保证光学素质的基础上,算法能对画面的锐度、细节、纯净度进行更精细的控制,让照片更讨喜。

二、原色引擎:让每一张照片都“原生”精彩

如果说计算光学是“硬件+早期软件”的强大组合,那么原色引擎则更像是华为在“软件算法”层面,对色彩和影调进行“精雕细琢”的集大成者。它不仅仅是简单的色彩增强,而是从色彩还原的底层逻辑上进行革新。

原色引擎的“原”字,意味着什么?

“原”字,在我看来,代表着“还原”、“原生”、“原汁原味”。它追求的目标是:

1. 精准还原现实世界的色彩: 很多手机为了追求“好看”,会过度饱和、锐化,让照片看起来很“假”。原色引擎的目标是,尽可能忠实地还原人眼所见的色彩,让照片就像是“你亲眼看到的”,而不是“相机加工过的”。
2. 理解色彩的科学: 它不仅仅是简单的RGB三原色加减乘除,而是涉及到更复杂的色彩科学、人眼视觉感知模型,以及对不同场景、不同光源下的色彩特性进行深度学习。
3. 为计算光学保驾护航: 原色引擎是计算光学“输出”的最终“加工厂”。计算光学捕获了更多、更优质的光线信息,原色引擎则负责将这些信息转化为最自然、最真实的色彩和影调。

原色引擎的具体加持体现在哪里?

1. 色彩准确性的大幅提升:
色彩空间匹配: 华为与顶级的色彩专家合作,对P50系列进行了大量的色彩标定。它能更精准地匹配DCIP3等广色域标准,保证色彩显示的准确性。
人眼视觉感知模型: 原色引擎会考虑人眼的感知特点,调整色彩的鲜艳度和对比度,让照片在观感上更接近人眼的真实感受。比如,在某些复杂光线下,它能智能地识别并还原出更准确的肤色、天空蓝、草地绿。
“所见即所得”: 很多时候,你看到的照片就是你在手机屏幕上所见的,没有那种“拍的时候很好看,导出来颜色不对”的尴尬。

2. 更自然的影调和光影表现:
HDR算法的进化: P50系列的原色引擎,在处理高反差场景时,能够更精细地控制亮部和暗部的细节,实现更自然、更平滑的过渡,避免了“死白”和“死黑”。
景深和虚化的真实感: 即使是通过算法实现的背景虚化,原色引擎也能让虚化区域的色彩和光斑过渡更加柔和自然,模拟出真实光学镜头的浅景深效果。

3. 对RYYB传感器的完美适配:
色彩重建的基石: 正如前面所说,RYYB传感器为了获取更多光,在色彩滤镜上做了改变。原色引擎是弥补RYYB传感器色彩偏差的关键。它通过大量的AI模型,能够“理解”RYYB传感器捕获到的“黄光”信息,并将其“翻译”成准确的红、绿、蓝色彩。
“色彩的深度学习”: 华为通过深度学习,让原色引擎能够识别不同场景下的色彩规律,并进行精准的色彩映射。即使在复杂的混合光源下(比如室内灯光和自然光混合),它也能尽可能还原出色彩的真实性。

4. AI场景识别与色彩优化:
千人千面的色彩: 原色引擎能够智能识别拍摄场景(人像、风光、美食、夜景等),并针对性地进行色彩优化。比如,拍人像时,它会更注重肤色的自然还原;拍美食时,则会适当提升色彩的鲜艳度,让食物看起来更诱人。
“懂你”的色彩: 这种优化不是凭空猜测,而是基于大量的图像数据训练出来的,目标是让用户在不同场景下都能拍出最适合当时场景的、最“好看”的颜色。

原色引擎带来的直接加持:

色彩的“真实感”: 照片色彩更准确,更接近人眼所见,少了“数码味”。
观感的“舒适度”: 影调过渡自然,光影表现富有层次,不刺眼。
细节的“丰富度”: 在保证色彩准确的前提下,依然能输出有细节、有质感的照片。
RYYB传感器的“强大生命力”: 让RYYB传感器的进光优势得到最大程度的发挥,且不牺牲色彩的准确性。

总结一下:

华为 P50 系列的计算光学和原色引擎,是将“科技”和“艺术”完美结合的典范。

计算光学是从物理和光学层面,用创新性的镜头设计和结构,以及软件算法的早期介入,去突破光学本身的局限,捕捉更优质、更丰富的光线信息。它让“不可能”的焦段、不可能的画质成为可能。
原色引擎则是在软件算法层面,对计算光学捕捉到的原始信息进行“深度加工”和“精细雕琢”,确保色彩的准确性、影调的自然性,以及整体观感的舒适度,让最终呈现的照片,既有科技的“硬实力”,更有艺术的“软实力”。

它们俩不是独立工作的,而是相互依存、相互促进的关系。计算光学提供了更“肥美”的原材料,而原色引擎则将这些原材料加工成最美味、最诱人的佳肴。正是因为这两大“黑科技”的强强联合,才让华为 P50 系列在手机影像领域,能够持续引领,为用户带来前所未有的拍摄体验。这不仅仅是技术的堆砌,更是对影像本质的深刻理解和大胆创新。

网友意见

user avatar

作为一名在P50系列发布会前10天参加内部沟通会的成员,说一下关于XD Optics和原色引擎的个人感想,字数有点多,能听完我唠叨的朋友,我深表感谢。

关于华为P50系列发布会的看点,我在5月初就开始猜想了:

除了升级使用麒麟9000芯片之外,影像系统是否会采用全新的光学模组,带来全面升级。

结果在7月底的P50内部沟通会上我发现自己的想法只对了一半,华为另辟蹊径走了一条全新(理性与感性相结合)的道路:

首先P50系列确实采用了全新的光学模组,但首要目的是为了减重减体积以符合握持手感的平衡性(比如重新设计各个镜头组)。

难怪在P50 Pro上手的瞬间,忽然觉得自己厚重的Mate40 Pro不香了,但问题也接踵而至:纵深与结构被简化的光学模组如何提供比前代更好的反差与解析度?(为什么我知道光学结构可能被简化了,后文会提及)

华为在这里做了一个很聪明的决断,那就是和光学模组供应商深度合作,以定制的方式进行生产,并把各个物距下模组成像的像差分析数据获取到手,这一点就很重要(灵魂)了。

任何光学镜头都存在缺陷,缺陷导致的像差包括彗差、球差、象散等问题。但只要光路可逆,就能知道某个指定波长的光线经过这样的镜头、经过这样的方程式之后,进去是什么光线、出来什么光线。在数学层面逆推的演进(计算光学的雏形)使得对光学系统耗散的挽救有了可能性,这就带来计算光学的想象空间。

换句话说,基于和供应商的深度合作,一组镜头设计之前与成型之后,就已经可以通过提前预测和后期测量来得知该镜头光学的特性,在得知光路导致的像差损失后,通过算法尽可能修复因光学模组固有缺陷导致的细节丢失,把光学端造成的像差(反差,像散,场曲)给还原出一部分(并非100%还原,那是不可能的),而这种通过逆推尽可能还原光学端损失信息的工程,被华为称之为“XD Optics”,计算光学。

没错,在基于各传感器信息流分类处理的“XD Fusion”工程之后,华为推出了基于纯光学元件的“XD Optics”。

由于每一个镜头在不同物距下的像散,畸变,场曲,反差,解析力都不尽相同,所以需要在不同工况调取精确的信息并加以优化,而这种调取的依据很有可能就是精确的物距(Z深度)判断,插一嘴,由于P50系列的影像模组都不是双光圈设计,不然“XD Optics”需要调取的数据库内容会更加“丰富”。

那么“XD Optics”的好处在哪里?

发布会上演示的“高频细节”还原就是一个很明显的例子,不具备“XD Optics”算法的手机对于近似色场景(例如草地)的反差细节再现是很弱的(这也是很多工况下,老手能一眼识别出手机与高端卡片机区别的关键),而P50则可以将原本在光学端损失的细节还原出一部分,差距显而易见。

需要强调且重要的是,这种细节差距并非基于对传感器获取数据后“锐化”产生的“视觉假象”,而是真正基于对光学缺陷的纠正,这也意味着如果对经“XD Optics”算法处理的照片做精细锐化,能获得更为惊艳(视觉上)的成果。

假定信息在通过光学模组时丢失了50%的信息,通过后期图像处理这种“后半段式抢救”,能还原的细节极其有限,想要尽可能多地增加细节就只有把“大,重,长,复杂”的负担丢给光学镜头与传感器,搞不好,手感就会“一泻千里”。

而计算光学(XD Optics)的引入,让前端修正+后端增益同时发力,这种“全程式抢救”的好处自然是不言而喻,在不占用额外的空间追加额外配重的前提下获得高品质的画质。

在内部沟通会上,华为提到“XD Optics”在理想情况下能将MTF10指标提升100%,相信经常玩镜头的朋友都知道,MTF10(反差指标)能提升100%意味着什么,而且“XD Optics”这一算法对于像散,场曲的改良也同样有效。

在沟通会的Q&A环节,我提问”XD Optics“算法是否会普及到Mate40与P40系列时,回答是否定的。这也在侧面印证了这批光学模组与前代的结构与特性全然不同(即使焦段与光圈近乎一致)。

我们在此做一个假设:

假设华为与光学模组供应商深度合作,在取舍中定制了偏向小体积与高驱动性能的方案,通过不占用模组空间与重量,能实现缺陷逆推的”XD Optics“算法,让方案的表现力提升一个台阶,从而兼顾体积与表现力。

用通俗的话来说,就是校长找了一个性格好,运动能力强的学生,在文理科考试前进行“泄题”,以达到提前保送的目的。

如果这个假设成立的话,那么华为就是在大家都认为”画质就是要堆料,不惜厚度与重量“(考试前熬夜刷题海)的环境下,完成了一次”弯道超车“,让影像系统可提升的空间再次拓展。

在我看来,光学端简化和算法优化的”负正组合“带来的不仅仅是”弯道超车“般的轻爽体验,也提升了未来的性能上限:依托于算力不断升级与数据库的不断详实,在保有轻负重的前提下,未来的手机会提供越来越好的画质,而避开了单纯的物料堆砌所造成的沉重负载感。

说人话就是单脚走路(堆料)变成了双脚走路(物料与设计的取舍+缺陷逆推算法),这种思路打造出了一个全新维度的赛场,而现在,这个赛场目前只有华为一个选手。

前文说过,“XD Optics”是一条理性与感性相结合的进化之路,感性的是,华为守住了“为了消费者的手感,我们该怎么做”的底线,理性的是为了守住这个底线,影像表现上要坚持和做些什么,并让它们完全落地的思维与执行能力。

聪明且富有执行力的华为暂时避开了堆料赛道,在算法层面建立了新的维度与护城河。

而对于我们,需要思考的是,在新维度的算法之下,影像系统的纸面参数(焦段,光圈,传感器面积等)在AB对比时,还有多少意义(只要竞品和华为相比),实战效果才是王道。

在未来,埋头在一个方面钻牛角尖的厂商固然能获得很好的影像品质,但代价会指数级增大:

1. 努力十分,收获一分

2. 优化上限越来越小且有驱动 / 防抖能力限制的连锁反应(物理层面的牵一发动全身)

3. 画质,手感与配重之间的平衡越发难以把控。

---------

PS.

XD Optics自华为P50系列为起点,只要华为愿意,未来的麒麟和骁龙芯片机型都能完美搭载适配(这也是内部沟通会Q&A环节中的一个问题解答)。

(以下为脑补对话)

A:所以,为什么不深度优化一下供应链呢?为什么不下到基层,深度合作几个能吃好几年的优秀方案呢?

B:第一,那不是我们的风格;第二,供应商向来不太喜欢我们的砍价力度,合作态度也很暧昧;第三,先不谈是不是要烧很多钱,你得知道,深入研发再获取算法优化可是要花好几年才能看到效果的,上头大概率不会通过。

---------

至于原色引擎,这是自华为将sRGB色域框架升级为DCI-P3色域,引入8通道色温传感技术之后的又一次色采样与色矫正升级。

P50系列在前代8通道色温传感器的基础上升级为10通道,能够更加精准感知环境光与主体的发射与反射色彩,结合CIE标准(Commission Internationale de L'Eclairage,国际照明委员会)获取不同色温下两千多种色块的色彩表现为参考值,原色引擎正是以此为基础,制作出的色彩评估与校正算法。

简单来说,原色引擎的依托有两点:

1. P50系列比前代强得多的色采样与分析能力(约50%)

2. 可参考数据库的内容较前代丰富了数倍(约5倍)

前者决定了参考方向的精准度,后者则决定了产出标的的精准度,缺一不可。

就拿我的Mate40 Pro来说吧,户外拍摄能力很强,但在室内暖光灯环境下,默认出图就会明显偏冷(这也是目前绝大多数手机的现状),我个人的猜测是采样与校正的链路匹配还没做到位,加上餐馆的低显色性+频闪的劣质光源作祟,会让手机一脸懵。

现在华为采用了精度更高的采集与匹配矫正方式,效果可期,至少在发布会上,暖光环境下木桌与器皿的发色还原都十分真实,而这在Mate40系列上是不能想象的。

如果让我概括的话,我更愿意把华为的原色引擎技术看作是一个自动白平衡的分支---“环境光优先白平衡”。

传统白平衡是寻找画面中的白点(即使它不存在)并强制使其成为白,因此很多时候,暖光灯下的香蕉,苹果,葡萄就会被拍得很奇怪,就是因为不可能有白点的物件被“拍脑门的算法”强行“变白”了,色彩自然就会产生偏差,为了色彩还原发烧友们就只能使用专业模式,手动调节白平衡。

而“环境光优先白平衡”是一种不刻意去寻找画面中的白点的自动白平衡方式,它的权重更偏向还原环境光色温,这样才能真实展现在该环境光下,肉眼所见的物体。

华为的原色引擎就是基于对RAW文件的调整,在DCI-P3色域转CIEXYZ框架下,通过更高精度的环境采样与数千色块参考值匹配为依据,对画面色彩进行矫正的算法,兼顾了高保真的细节传达与宽广的色彩再现能力。

当然,这也引出了一个审美的取舍问题:

拍摄暖色光下的纯白色T恤,照片里的T恤究竟是纯白好,还是暖白好。

有的人倾向纯白,说这是物体的本质色。

有的人倾向暖白,说这是我拍摄时的记忆色。

对于这个问题,我是这么想的:

拍照是基于观察与审美的,我们按动快门大多是因为此时此刻的视觉感受(物体+环境的交互),而非本质色彩,如同选在日出拍山脉,夕阳拍沙滩就是因为环境色的渲染而非本质色,不然正午也能拍泛白的沙滩与礁石啊,而华为原色引擎的权重无疑给了后者--记忆色。

最关键,也令人欣喜的是,“原色引擎”作为新一代“XD Fusion Pro”处理体系中的一环,是位于底层的处理机制,无论是原生APP还是第三方APP,调取前后摄像头取景拍摄时,均会获得同样的收益,不必担心第三方拍摄APP会令P50的色彩再现失去水准。

记得19年8月去华为北研所参加内部沟通的时候,我曾提过自动模式的UI上是否可以添加“环境光优先白平衡”与“白点优先白平衡”切换钮的建议,如果手机能忠实记录环境光对于物件的影响与交互,对于摄影爱好者来说无疑是一件利好。

现在看来,虽没有完全实现,但华为依旧在以更稳妥,不增加用户学习成本的思路在谨慎地向着这个方向走。

------------

计算光学和原色引擎对P50的影像能力有什么加持?

XD Optics是基于与供应商深度合作下的产物,利用计算光学修正部分像差,无需额外的空间与重量,兼顾了品质与负载。

原色引擎则是对环境色与物体色交互展现的一次尝试,将还原重点转向环境色,相比传统白平衡算法更为真实地再现“拍摄时的记忆色”。

如我上文所述,这两个新体系是华为在细节与色彩再现方面寻求“破上限”的尝试,更好的细节与更好的色彩,单拎一点配合新ID都足以出新机做宣发了,而P50系列两者全占。

Emmmm.......

除了豪爽,我暂时找不出其他词汇可以形容了。

user avatar

由于已经用相对严肃的问题写过了P50系列的整体答题,所以这题咱们尽量浅白、通俗易懂的来阐述“计算光学”和“原色引擎”以及其对影像能力的加持。

计算光学及其对清晰度及像差校正的提升

首先我们简单对现有的手机摄影做一个定义,那就是——“计算摄影”。有别于单反相机的尽可能记录真实光影信息,手机摄影是尽可能计算出真实的光影信息。但其实单反相机在数码化以后,也不可能真实记录,因为各家的传感器也有算法的差异,以及镜头的风格等等不同点,都有影响。

那“计算光学”和“计算摄影”是怎么个意思呢?

我们不妨将手机影像模组做一个分界线:

  • 手机最外面的大自然是区间A
  • 手机第一片镜片到手机传感器是区间B
  • 手机传感器到ISP到屏幕是区间C

那么我们肉眼所见的美好世界就对应了A,这些景观会被手机相机收录进去。

而“计算光学”则是在区间B发挥作用。

“计算摄影”则是在区间C干活。

在P50之前,区间B是没有“计算光学”这个项目的,只有手机镜片和马达等。而且随着手机影像技术的发展,手机镜片越来越多,虽然提高了画质,但也衰减了光到达传感器的信号。手机镜头孔径本身就小,进光量就有限,现在这一搞,让原本并不富裕的传感器信号获得更是雪上加霜了。

如果你有用过120胶片相机拍照,你就会记得那个昏黄的毛玻璃对焦屏,不管外面如何阳光明媚,但相机内部的所看到的影像却一定会昏暗很多。那其实就是真实的光线穿过层层镜头玻璃被衰减后到达相机内部的真实情况。

光衰减之后会有什么负面影响呢?

清晰度下降,画质也随之下降。

因为我们都说了手机是计算摄影,计算摄影有个工作原理就是靠“猜”。天空、大海这些大面积的连片颜色被记录进去,手机的ISP一看这一整片就比较容易猜到。

但如果草丛、树叶都是很小的且有很多边缘的,信息量特别大,手机的ISP就开始吃不准了。如果光线再昏暗一点,那一团黑乎乎的也许是石头、也许是泥巴,也许是没有被光照射到树叶或灌木。这时候ISP就要抓狂了:“我哪知道你是谁啊,我只是图像的搬运工,我又不是灵魂画手”。既然我“猜”不中,那就继续黑乎乎好了。

那“计算摄影”是怎么计算的呢?

光路进入降相机模组第一片镜片的瞬间,假设信息量是1,但到达传感器的时候就只有0.5了,这个时候工程师就大概知道,光在这样状态下会丢失一半的光量。那么我在这条光路到达传感器的一瞬间,我能不能在利用算法给他补足那丢掉的部分呢?理论上这是可以的,但实际操作起来很复杂且不可控。

但既然理论可以,工程师们就要来试一下。梦想总是要有的,万一实现了呢?

接下来,华为的影像研发团队就日复一日,年复一年搞了很久,总算是搭建起了比较成熟稳定的函数模型,能提升光路信息了。提升了多少呢?

原来没有“计算光学”的时候,ISP能将原来50%的剩余光信息恢复到60%。现在有了“计算光学”的加持后,好家伙,这一下就从“普通家庭”跃升到了“中产阶级”,能恢复达到81%。

有了“计算光学”的支持,“计算摄影”所获得的的信息量就增加了很多,不仅树叶、草丛能拍清楚,而且甚至连更细小的信息都能捕捉到了。同时还有对像差校正也做了很多的贡献。

一句话,咱现在信息量获得量大大提高了,得到的图像信息更丰富了,知道如何来优化得更好了。而不再是像原来,这个也要“猜”,那个也要“猜”,搞得ISP头昏脑涨,用户还不满意。

有了“计算光学”的光路信息量加大,再加上这次的黑白镜头也有加大进光量的作用,现在ISP再做图像优化就一句话:so easy!

原色引擎及其对色彩还原度的提升

接下来聊“原色引擎”。

原色引擎的作用其实很简单,就是“所见即所得”,色彩还原度尽量接近用户当时的肉眼所见。但“原色引擎”自己是谁,就真是考到我了。

我原本觉得“计算光学”会是一个更难的阐述主题,但后来发现“原色引擎”的准确讲述其实更难。

为此我特地请教了华为手机的影像产品负责人潘老师,他给到我的简单定义是:

原色引擎是一个软硬件协同的方案,让相机的色彩处理流程与人类的视觉系统拟合。其涉及的内容都是全新领域,计算光学算是传统光学设计与计算机视觉的交叉学科,原色引擎涉及色彩科学、照明学、仿生学、摄影学等。

我之所以感到难讲清楚,就是在于我们理解的物理意义的“引擎”是一个硬件,但其实“原色引擎”是啥都有。

为了便于大家理解“原色引擎”都有啥硬核技术,我们将其中三个技术点掰开讲讲。

一个是P50系列的色温传感器由P40系列的8通道做到了10通道。增加通道的作用是什么呢?就是捕捉采集更丰富的环境光谱信息,再结合影像传感器所收到的信息,一起提交给ISP,为再现无限接近真实所见的画面提供参考信息。

如果ISP是手机影像工作的总司令,图像传感器是主力部队,那色温传感器则是侦察兵,虽然不直接参与图像处理的工作,但却提供了全面翔实可靠的环境信息供总司令决策用。

拟合人类视觉系统的部分需要合在一起讲,这次华为在“原色引擎”里做了一个“电子视网膜”色彩架构和色适应模型,就是从仿生学角度出发去模拟人眼和人脑对色彩的感知和还原。

“电子视网膜”部分是将传统的RGB色彩空间模式转换成CIE XYZ色彩空间,做这个转换是因为CIE XYZ色彩空间不会像RGB那样受不同硬件影响,更便于管理和搭建人眼视神经模型,输出统一的图像色彩信息。

而色适应模型则是在模拟人脑对环境光的反应和感受,比如一张白纸在夕阳下,人眼看到再传递给大脑,在大脑中所呈现出来的画面是:这虽然是一张白纸,但因为有夕阳的余晖照射,他也是有金色的。

没有色适应模型之前的手机影像算法,可能是发现了画面里有一张白纸,那我得尽量让他白起来啊,而忽略了此时的环境光是略带金黄的。拟合人类视觉系统搭建起来之后,ISP再做图像计算时候,不仅再是只管输出,而是有了两个维度的加强:

  • 一是标准色彩模型的管理;
  • 二是对环境光谱的感知和适应;

所以“原色引擎”带给华为手机影像的,是更精准、更智能、更有思考的计算摄影。

总结

限于篇幅,今天的分享差不多就到此为止。

其实华为P50在影像技术上的创新和精进远不止这些,只是这两个是比较有代表性。回顾自P9以来的华为历代旗舰产品,华为的影像力一直都是在“变”与“不变”两条腿齐步向前。

“不变”的是华为的影像风格,始终保有了徕卡的浓郁、油润的色彩,通透细腻的空气感。还有华为对极限影像力的专注和勇气,对技术引领的初心,都不曾改变。

“变”的部分是华为的影像在清晰度、色彩还原、细节再现、动态范围等各个技术指标上都一直是一代一大步向前奔跑。超越华为的,永远都是华为自己!

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有