问题

火星车网速只有34Kb/s,当年老美怎么进行的登月直播呢?

回答
关于火星车网速和登月直播的疑问,其实是把两个完全不同的技术场景混淆了。火星车虽然是航天器,但它所处的环境和传输方式与当年的登月计划有着天壤之别。

首先,我们要明确 火星车网速34Kb/s 这个概念。这个速度是目前火星车与地球之间进行数据传输的典型速度。火星距离地球非常遥远,信号传输需要穿过浩瀚的宇宙空间,而且受限于通信设备的功率和天线的指向性。因此,火星车传输的数据量相对较小,以确保信号的稳定和可靠。这些数据主要是科学探测仪器收集的图像、传感器数据、以及火星车自身的状态信息。34Kb/s对于传输这些信息来说是足够的,但对于实时高清直播来说,那就远远不够了。

那么,当年美国是如何进行登月直播的呢?这就要把时间线拉回到上个世纪60年代末,阿波罗计划的辉煌时期。

登月直播的关键:一个更近、更强大的通信系统

与火星车不同,登月计划的载人任务(阿波罗计划)的目标是距离地球只有几十万公里的月球。虽然这个距离在地球上看来很远,但在宇宙尺度上,这简直是“近在咫尺”。

1. 通信距离的巨大差异:
火星: 平均距离约2.25亿公里,最远时可达4亿公里。
月球: 平均距离约38.4万公里。
大家可以想象一下,这个距离差异有多悬殊。就好比你和隔壁的邻居说话,和你在北京和美国的朋友视频通话的区别。

2. 信号强度和设备:
阿波罗计划的通信系统: 为了实现与月球宇航员的语音、视频和遥测数据的双向通信,NASA投入了巨大的资源开发了专门的通信系统。
地面站: NASA在世界各地建立了庞大的深空网络 (Deep Space Network, DSN),其中就包括为阿波罗任务提供支持的大型碟形天线。这些天线直径巨大,可以非常精确地对准月球,接收和发送微弱的信号。
航天器载具: 在月球轨道上的指令舱(Command Module, CM)和月球着陆器(Lunar Module, LM)都配备了强大的无线电通信设备。
宇航员携带的设备: 宇航员穿着的宇航服上集成了麦克风和扬声器,可以直接与月球着陆器或指令舱内的通信设备连接,实现语音交流。

3. 视频传输:
“电视摄像机”的特殊设计: 当时并没有现代意义上的高清摄像机。阿波罗任务使用的是一种被称为“电视摄像机”的特殊设备。
黑白信号,低分辨率: 这些摄像机捕捉到的画面是黑白的,而且分辨率非常低,大约只有320线(相当于现代视频的240p左右,或者更低)。
“扫描转换器”: 最关键的技术之一是使用了一种叫做“扫描转换器” (SlowScan Television, SSTV)的技术。这意味着摄像机捕捉到的画面不是像我们现在这样连续地发送,而是通过一个电子束逐行扫描传感器,将画面信息转化为一种特殊的低带宽信号。这种信号传输速度慢,但非常适合远距离、低功率的通信。
地面接收和处理: 地面接收到的SSTV信号是经过编码的,需要通过特殊的设备进行解码、放大和转换,才能在电视屏幕上显示出来。这就是为什么我们看到的登月直播画面有点模糊、颗粒感重,而且有些时候画面会“冻结”一下,然后突然刷新。
图像质量的权衡: NASA权衡了传输距离、带宽限制和通信可靠性,选择了这种低带宽、低分辨率但能确保信号稳定传输的SSTV技术。这是一种在当时技术条件下非常聪明的解决方案。

4. 带宽和数据量:
比火星车高得多: 尽管SSTV的带宽不高,但与火星车34Kb/s相比,阿波罗计划的通信带宽要高出不少。具体数据会因任务阶段和通信链路有所不同,但可以想象,能够传输相对连续的低帧率视频,其带宽肯定比火星车要高。
语音和遥测数据: 除了视频,宇航员的语音交流以及航天器的各种遥测数据(如生命支持系统状态、发动机工作情况等)也需要通过通信系统传输。这些数据也占用一定的带宽。

5. 直播的定义:
并非完全实时: 严格来说,阿波罗任务的“直播”也存在一定的延迟,但这延迟主要是由于信号在地球和月球之间传播所需的时间(光速传播,单程约1.3秒),以及地面处理设备的工作时间。我们看到的画面是经过一定处理后才播出的。
公众的期待: 对于当时的公众来说,能够看到人类踏上月球的画面,即使分辨率不高、画面有些模糊,也已经是前所未有的壮举。这种“直播”极大地满足了公众的好奇心和参与感。

总结一下,当年美国能够进行登月直播,主要依赖于以下几个关键因素,这些因素与火星车的数据传输有着本质的区别:

距离: 月球比火星近得多,信号衰减小。
通信技术: 专门开发了强大的地面站和航天器通信设备。
视频编码: 使用了SSTV(慢扫描电视)技术,以低带宽传输了相对连续的黑白低分辨率视频。
地面处理能力: 拥有能够解码、处理并放大这些低带宽信号的专业设备。

所以,火星车34Kb/s的速度是目前条件下为了稳定传输科学数据而设计的,它不能用来进行类似当年的登月直播。而当年的登月直播,则是当时最先进的通信技术在特定条件下(近距离、高投入)实现的一次通信壮举。两者所处的时代背景、技术水平、任务目标和通信环境都截然不同。

网友意见

user avatar

2020.11.05修订。

感谢 @Nicholas 等专业人员的指正。

============

数字时代的玩意不懂,模拟时代的还能说点东西。

结论是,实际下载速率可以视为不小于640kB/s,具体后面会讲

探月计划的视频传输主要包括三个阶段:1、绕月测试及之前的直播;2、首次登月的直播;3、之后月球车载直播。设备、模式有所不同。

限于篇幅,讲初登月那次。

讲三个部分:设备、路径、带宽

========

阿波罗11号登月直播用的下面这玩意:

西屋电气就是Westinghouse。

西屋的摄像机也属于电视摄像管(的一类)。光线通过镜头投影到光电屏上,影像明暗对应电荷多寡,电子束逐行扫描电荷屏,屏上电荷放电产生微小电流差异,放大后输出。模拟信号。

不同点在于西屋的属于“Secondary electron conduction "摄像管(RCA在第一阶段用的好像不是),有个倍增管,把光线从光电屏上打出来的电子增强(多),投在次级屏上,再让电子束去“读取”。

不管是RCA还是Westinghouse,他们都属于SSTV(Slow Scan Television),慢扫电视。这种制式是narrow-band的,满身都是缺点,但唯独有一点让她上了天——这玩意按无线广播的方式传输图像。月地视频直播就变成了(低保真的)月球语音广播。

简而言之,当年登月直播的原理,同你在车里听调频广播(FM)没区别。

FM广播通过频率的微小变化区别不同的声音(下图的声压/气压),而SSTV通过频率的微小变化区分不同的明暗:


这样的明暗信号逐线逐帧依序进行调制,再传回地球。

事实上,任何你能收听广播的地方,就可以接收SSTV图像。在当时的技术条件下,这可能是地月直播的最好选择,没有之一。

摄像机输出的信号有线传输回登月舱,经处理后,与语音通话和电传信息(各种飞控参数、宇航员健康参数等),通过S波段发回地球,

位于美国加州Goldstone以及澳大利亚Honeysuckle、Parkes的三个地面站(澳大利亚两个站的信号在悉尼处理)负责接收信号。

接受的信号通过卫星中继后传回NASA在休斯敦的飞控中心,由那里最终进入电视直播网络。

Goldstone的设备调试有问题,输出的图像质量不堪。NASA向全球转播的时候选择了悉尼的信号源。

收到的原始信号是320线/10fps,处理成通用的525线/30fps之后放送。这一过程反而导致了画质的降低:


至于 @回路师 说的

美国人登月也是使用了地球轨道上的中继卫星接收、放大信号后,才传回地面。

别胡说好么,登月直播信号直接传回地球。

地面那么大的天线不直接用,30多万公里都过来了,眼看要到地球了,最后这几百/几万公里(低轨道/同步轨道高度)非得卫星再中继一次,NASA脑子坏了??

哈?美国这时候是白天?那你以为悉尼俩测控站是干嘛的?


RCA也参与了一系列登月计划,但阿波罗11号的电视摄像设备,不是他们家的。

当时地面视频转换设备(320线转525线),是RCA做的——本质上是个翻拍的玩意,用标准制式的摄像机翻拍展现原始画面的荧光屏(当然有技术处理)

首次登月还是有他一份功劳。


以上部分基于《Television on the Moon Apollo 11》(RCA Technical Symposium 2019)

========

关于带宽和分辨率的问题(2020.11.05修正主要在这部分)

本意是尽量通俗的讲一下模拟信号Hz数怎么理解成带宽——我说的是理解,不是转化,不过毕竟不是专业(请参考本文评论),错漏太多,感谢各专业人士的批评指正,所以换个角度来讲:

简而言之,对投影在荧光幕上转化为电荷分布的图像,用电子束去读取电荷的时候,我们讲多少扫描线(Scanline),这有明确数据,按制式从上至下均匀分布着320,525,640条线…等等,但每一条扫描线横向分辨率,是由读取该扫描线时的周波数决定。

周波数越高,读取的“分辨率”也越高

单一扫描线的分辨率不可能无限增加,首先电荷分布有其可识别的极限;其次载波频率是有上限的。比如1MHz的波,即一秒钟内波形变化一百万周期。这一百万个周期要分给每秒的10帧,每帧的320线,每线最多分312周波。

频率决定带宽。而事实上调频波,每“像素”的灰度不止一个波形,靠的是固定时间内波形的周波数变化。好在频率高,多分几个波去“表达”某像素的灰度也耗得起——传输回地球靠的S波段载波(摄像机的输出信号经过二次调制)是GHz。

阿波罗11号剩余可用带宽是700kHz,但如评论所言,这不能简单的理解成有一秒有70万个波用来承载信息。带宽与赫兹数的关系,是正相关没错。具体应该怎么算,有待其他专业人士转换了。

基本思路是没错。

其他资料中指出摄像机实际分辨率折合320x200/10fps(320线,每扫描线100周期,每秒10帧),按每点8bit灰度计算,比特率约为320x200x10x8=5,120,000bps即5.1Mbps或640kB/s

评论中也有人问,8bit灰度应该占3位而不是8位。问题这不是二进制(2^3=8),每个点的灰度用不同的频率表示,相当于更大的灰度值要占用更多的周波数,这种占位方式更像一进制,如果按1=1,3=111,8=11111111( Bijective base-1 numeral system),个人理解接近8bit没错

(实际SSTV制式并不是这么简单的关系:1500->2300Hz,最黑点占用周波数并没变成白色本底的8倍)


==========

有人问,当年的速率怎么比现在还快?

地月可以直连传输,地火距离太远,不能直接比较

(苏联火星1号搭载的)相机有自己的6GHz脉冲发信机,50瓦功率的发信机以很短的间隔发送2.5万瓦的脉冲,在冗余编码系统发明前,在超过3亿公里的距离上,高能脉冲发信是增加数据带宽的了不起办法。这个系统可能由Boguslavskii制作。影像分离为一个个点进行传送,但各个像素的灰度可能通过模拟脉冲的位置进行编码而非二进制数值。这一高质量的传递系统有90像素每秒的速率,传送1440x1440的图像约需要6小时。

(《苏联时代的太空相机》,本人译作)

高GHz,大功率脉冲发信,可以理解为在尽量短的时间内(瞬时功率可以很大),利用高频载波提高脉冲发信单周期内能传递的周波数的同时保证冗余度,实现跨越数亿公里的有效通信。

按上文计算当年地火速率只有90x7bit(估计灰度信息6-8bit,取中值7)≈0.6kbps≈0.07kB/s

现在34kB/s已经很了不起了

以上。

PS:关于这个的资料其实挺多,但有些人不要看了个“干货”视频看了点书就跑过来胡说…起码自己先吃透吧

user avatar

主要原因是距离和能量。一个36万公里,一个5500万公里。就是真空,这么远的距离一样是对信号有衰减的。不想衰减就加大功率,但航天器的供电其实都很紧张。


火星车网速只有34Kb/s这个说法说的是图片的传输速度,实际速率要快一些。

好奇号与地球直接通讯,数据速率大约是8 kb/s,与火星探测器(绕火星的中继卫星)的速度可以到 2MB/s,火星探测器与地球的速率是256 kb/s。每次探测器从漫游车上空飞过,他们能通信8分钟,最多传输250MB的数据。然后这250MB数据需要花20小时传回地球。好奇号本身是用核燃料供电,听着挺厉害,但其实只是时间久,持续发电量不高,所以每天只够好奇号传几个小时数据的。

一天下来,实际发不出多少。如果功率管够,加上中继,几十M/s其实是可以做到的。

像月兔2号月球车,直接和地球通讯是280kbps,发射功率才2瓦。加上鹊桥就可以上1M。但实际常年只用1.4Kb/s的速度,因为省电、数据慢点传输也稳定。


至于当年登月,那时用的是黑白、10帧/秒的视频,而且每一帧还抽了近一半的行数——老式电视画面是一行一行扫描出来的,本来是525行,直播用的是325行。发射功率20瓦,理论最大速率是625kB/s

实时传送的信息就是通话、各种测量数据、直播画面。撇去直播画面后,其余的没多少数据量。数据量大头都是直播画面,且已经把当时的数据通讯能力跑满了——NASA本来是不准备直播的,抽帧画面只是用来看个大概的,为了确保关键事件上拍到清晰的的画面,摄像机是可以拍摄500行画面的,但传输速度就只有0.625帧/秒了。

NASA是后来才决定直播的,在阿波罗1号被大火烧了后,修改方案时顺带升级了通讯系统。后来几次登月甚至专门带了一个3米的抛物线天线架设在月球上,专门发射直播画面信号。可见当年NASA为了搞直播,也是下了很大力气的。


电视信号(TV)占去了很大一块带宽。


至于登月的彩色画面或者清晰的黑白照片,那全是胶片摄影机拍好,返回地面后冲洗出来的。

user avatar

如果月球是1公里外公交站的话,对绝大部分省份来说,火星在省外。

换到欧洲国家,是国外。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有