其实不用未来
现在就可以
比如WAR3魔兽争霸的录像
就很小很小
为什么呢,,因为这个录像并不是真正的录像
而是记载了黑暗游侠0分16秒在52.37这个坐标对54.34这个坐标使用了E
等等,然后看录像时候就是一个加载
未来可能也有这样的模式
0分17秒,肖战向屏幕27.45位置伸出了嘴唇
0分18秒,王一博也向屏幕27.45位置伸出了嘴唇
不过弊端也是显而易见的,就是你想观看魔兽录像你得先安装一个两个多G的魔兽争霸Ⅲ
如果换成网剧,你可能得加载一个500G的资源库。。。
电影并不是压缩得体积越小越好。
压缩算法越复杂,解压就越费力,对播放电影的设备配置要求会提高。
现在随着网速和硬盘性能越来越好,反而压缩体积是最不需要的。
有一本书,叫《信息论》。
信息论当中有一组基本定理,叫香农。
真正的回答在那个里面。
简单来说的话,数据之所以能压缩,是因为其存在冗余。比如一部电影当中,主角的脸不停重复出现,这些脸之间是有冗余信息的。所以可以压缩。
因此,(在非损失的前提下)最终的压缩极限,取决于影片本身包含的不重复信息量。也就是和影片内容本身有关。
比如,任天堂红白机的很多游戏,都只有几百K或者几十K。因为其中包括的有效不重复信息并不多。你当然可以将其录制成为一部90分钟的4K影片。如果我们的压缩算法能够“聪明”地将其还原成为游戏ROM+一系列用户操作,那么压缩到MB单位甚至是KB单位理论上是有可能的。
又比如一些CG制作的影片。其本身是通过一系列美术素材+表演脚本,然后通过计算机渲染生成的。理论上,如果你只是保存这些素材和脚本,每次播放的时候渲染出片,那也是可以大大减小文件大小的。只不过目前的家用计算机算力,恐怕你得好几个小时甚至好几天才能看到一帧画面。
但是对于实拍的影片,由于灯光和背景等包括无数按照时间随机变化的“噪声”,以及人的表演很难用一组参数和公式去精确描述,导致即便你的影片内容本身极为简单重复,也很难压缩到这个数量级。
所以,对于一般意义上的4K影片内容,这种压缩率是无法实现的。因为其本身包含的有效不重复信息量就已经超过了KB或者MB这个层级。
你这让我想起来了一条定律,熵增加原理。
大概意思就是,所有的物理过程,混乱度都是增加的不是减小的。信息的度量都是增加的,不会减小。
所以蓝光电影怎么可能压缩到几M,几K。除非它本来几M,几K。。
你如果说,以前我们用手掌大的光盘存储这些信息,有没有可能用一根头发丝大小的东西存储这些信息。我可以告诉你,那是可能的。
但是你说,能不能把三国演义这本书,压缩成 天下大事,合久必分,分久必合。这几个字?这能叫压缩吗?压缩算法要求可逆的。
如果一个数据 存了一百个1,占用了100个字节,现在我如果发明一种压缩算法,用4个字节就能完成压缩,就是1001,解压缩的时候把它还原成100个1就行了,这就是压缩解压的原理。
能压缩能解压,是因为有规律可循,对电影这样的混乱度极高的数据,怎么可能把几g压成几个m。
不抖机灵,严肃回答,这个问题还是有很大的脑洞发挥空间的。如果我们将这个假设建立在这些并不离谱甚至隐隐约约可以看到趋势的脑洞上,那么这个是完全由可能的。
在详细讨论这个问题之前,我们先来简单的阐述一下动画原理,即使在今天,它仍然遵循着一个古老的动画原理---无非是一张一张图片不断的切换,因为人眼的视觉残留效应,画面就运动了起来,当然,电影也是动画的一种,自从人类发明了照相机能够进行影像的记录,如果我们在一段很短的时间内不断的摄像,然后将所拍摄的照片组合起来,按照跑马灯的思路不断进行切换,那就是电影了
上面一张张连续的图片,称之为“帧”,当然到了今天,大部分的电影都以数字化的形式存储在了电脑上,于是,每一帧都可以当做是一张存储着的图片,那么,如何压缩一部电影的大小,除了讨论降低采样率或者使用一系列插值补间算法,很大程度上可以简化为如何降低每一“帧”的存储空间,也就是如何压缩每一张图片的大小。
当然,使用ARLE编码,Huffman编码或者是其它衍生压缩算法的可以在图像或者是音频上获得不错的无损压缩率,但这仍然不够,我们知道,信息论的祖师爷香农,早已在其三大定理中给出了信息无损压缩的极限,但我们也知道,一张图片中仍然存在大量人眼难以感知的冗余信息,在大部分的情况下,去除这些冗余的信息并不会对我们的视觉体验造成太大的影响,因此我们建立基于频域分析方法的图像压缩格式,例如,在下面的示范中,我们使用二维傅里叶变换,将一张图片由空间域转换为频域
你可以看到,图像的能量就集中在了低频中的那么一点点
因此,我们可以将大部分人眼较不敏感的高频信息去除掉,留下能量聚集高的低频信息,然后再结合其它的无损压缩算法,一张几M的图片压缩到几百甚至几十KB是完全可能做得到的。
至此,我们能够实现10%以下的压缩率,一张图片的大小压缩到了原本的1/10左右,但这仍然不够.但即使使用能量聚集度更高的DCT算法,如果进一步削减低频区域,就会导致原图变得模糊.
那么,有没有办法更进一步呢,显然,基于统计学习方法的神经网络为我们提供了一个思路,它可以将一个模糊的图像还原成一个高清的图像
甚至于说,如果我们将一张图片从彩色变成灰白,它可以直接将空间压缩到原来的1/3,再使用AI将它进行还原
这么看来,一个原始为1个G的电影,压缩到几M完全是可以办得到的,当然这个手法有些作弊,毕竟这是一个基于统计学习方法的还原方式,可能还原的数据和原来的数据并不一致,并且神经网络的整个结构,甚至会比整部电影还大得多.
那么,还有没有其它的压缩方式呢,我们来看看2018年的程序编码大赛的一等奖-地球毁灭前夕,你能想象,一个由程序演算合成的长达近5分钟的CG级视频,其大小只有64KB么
长度仅有64kb的演算CG https://www.zhihu.com/video/1452037428940427264整个电影级的cg动画完全由程序实时演算生成,当然,因为比赛允许,所以其部分纹理可能是系统自带的,渲染器也是系统自带的,这也就意味着,你看到的世界不管是其物体,光照,乃至于花草的摆动,完全是程序结合系统提供的素材及运算资源演算出来的,你可以在下面的链接下载到完整的程序
尽管这种极限的动画方式,鉴于其开发的成本甚至比直接制作还更高,因此并没有得到广泛的应用,
在不少的游戏过场动画中,你可以看到原理和它"差不多"的案例,也就是游戏内的一些动画场景,就是使用游戏内的模型演算出来的,尽管目前来说,它们中的大部分都比较粗糙,远远达不到电影级的效果.
但这也给了我们一个思路,在未来是否有一天,我们每个人的电脑上都会带有一个标准的"素材库"和图形"渲染器",仿真"物理引擎",之后的电源,就是建立在这些素材库,渲染器和物理引擎之上,我们只需要编写好剧本.就能够通过演算合成一部CG大片,但我相信在不久的将来,这个愿景将会得以实现,到那一天,你就能靠墙上贴着的一张二维码,直接享受到一部好莱坞大片了.
未来都能把蓝光电影压缩到几兆几K了
你居然搁这担心你的手机流量?
读原著。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有