2020.11.05修订。
感谢 @Nicholas 等专业人员的指正。
============
数字时代的玩意不懂,模拟时代的还能说点东西。
结论是,实际下载速率可以视为不小于640kB/s,具体后面会讲
探月计划的视频传输主要包括三个阶段:1、绕月测试及之前的直播;2、首次登月的直播;3、之后月球车载直播。设备、模式有所不同。
限于篇幅,讲初登月那次。
讲三个部分:设备、路径、带宽
========
阿波罗11号登月直播用的下面这玩意:
西屋电气就是Westinghouse。
西屋的摄像机也属于电视摄像管(的一类)。光线通过镜头投影到光电屏上,影像明暗对应电荷多寡,电子束逐行扫描电荷屏,屏上电荷放电产生微小电流差异,放大后输出。模拟信号。
不同点在于西屋的属于“Secondary electron conduction "摄像管(RCA在第一阶段用的好像不是),有个倍增管,把光线从光电屏上打出来的电子增强(多),投在次级屏上,再让电子束去“读取”。
不管是RCA还是Westinghouse,他们都属于SSTV(Slow Scan Television),慢扫电视。这种制式是narrow-band的,满身都是缺点,但唯独有一点让她上了天——这玩意按无线广播的方式传输图像。月地视频直播就变成了(低保真的)月球语音广播。
简而言之,当年登月直播的原理,同你在车里听调频广播(FM)没区别。
FM广播通过频率的微小变化区别不同的声音(下图的声压/气压),而SSTV通过频率的微小变化区分不同的明暗:
这样的明暗信号逐线逐帧依序进行调制,再传回地球。
事实上,任何你能收听广播的地方,就可以接收SSTV图像。在当时的技术条件下,这可能是地月直播的最好选择,没有之一。
摄像机输出的信号有线传输回登月舱,经处理后,与语音通话和电传信息(各种飞控参数、宇航员健康参数等),通过S波段发回地球,
位于美国加州Goldstone以及澳大利亚Honeysuckle、Parkes的三个地面站(澳大利亚两个站的信号在悉尼处理)负责接收信号。
接受的信号通过卫星中继后传回NASA在休斯敦的飞控中心,由那里最终进入电视直播网络。
Goldstone的设备调试有问题,输出的图像质量不堪。NASA向全球转播的时候选择了悉尼的信号源。
收到的原始信号是320线/10fps,处理成通用的525线/30fps之后放送。这一过程反而导致了画质的降低:
至于 @回路师 说的
美国人登月也是使用了地球轨道上的中继卫星接收、放大信号后,才传回地面。
别胡说好么,登月直播信号直接传回地球。
地面那么大的天线不直接用,30多万公里都过来了,眼看要到地球了,最后这几百/几万公里(低轨道/同步轨道高度)非得卫星再中继一次,NASA脑子坏了??
哈?美国这时候是白天?那你以为悉尼俩测控站是干嘛的?
RCA也参与了一系列登月计划,但阿波罗11号的电视摄像设备,不是他们家的。
当时地面视频转换设备(320线转525线),是RCA做的——本质上是个翻拍的玩意,用标准制式的摄像机翻拍展现原始画面的荧光屏(当然有技术处理)
首次登月还是有他一份功劳。
以上部分基于《Television on the Moon Apollo 11》(RCA Technical Symposium 2019)
========
关于带宽和分辨率的问题(2020.11.05修正主要在这部分)
本意是尽量通俗的讲一下模拟信号Hz数怎么理解成带宽——我说的是理解,不是转化,不过毕竟不是专业(请参考本文评论),错漏太多,感谢各专业人士的批评指正,所以换个角度来讲:
简而言之,对投影在荧光幕上转化为电荷分布的图像,用电子束去读取电荷的时候,我们讲多少扫描线(Scanline),这有明确数据,按制式从上至下均匀分布着320,525,640条线…等等,但每一条扫描线横向分辨率,是由读取该扫描线时的周波数决定。
周波数越高,读取的“分辨率”也越高
单一扫描线的分辨率不可能无限增加,首先电荷分布有其可识别的极限;其次载波频率是有上限的。比如1MHz的波,即一秒钟内波形变化一百万周期。这一百万个周期要分给每秒的10帧,每帧的320线,每线最多分312周波。
频率决定带宽。而事实上调频波,每“像素”的灰度不止一个波形,靠的是固定时间内波形的周波数变化。好在频率高,多分几个波去“表达”某像素的灰度也耗得起——传输回地球靠的S波段载波(摄像机的输出信号经过二次调制)是GHz。
阿波罗11号剩余可用带宽是700kHz,但如评论所言,这不能简单的理解成有一秒有70万个波用来承载信息。带宽与赫兹数的关系,是正相关没错。具体应该怎么算,有待其他专业人士转换了。
基本思路是没错。
其他资料中指出摄像机实际分辨率折合320x200/10fps(320线,每扫描线100周期,每秒10帧),按每点8bit灰度计算,比特率约为320x200x10x8=5,120,000bps即5.1Mbps或640kB/s
评论中也有人问,8bit灰度应该占3位而不是8位。问题这不是二进制(2^3=8),每个点的灰度用不同的频率表示,相当于更大的灰度值要占用更多的周波数,这种占位方式更像一进制,如果按1=1,3=111,8=11111111( Bijective base-1 numeral system),个人理解接近8bit没错
(实际SSTV制式并不是这么简单的关系:1500->2300Hz,最黑点占用周波数并没变成白色本底的8倍)
==========
有人问,当年的速率怎么比现在还快?
地月可以直连传输,地火距离太远,不能直接比较
(苏联火星1号搭载的)相机有自己的6GHz脉冲发信机,50瓦功率的发信机以很短的间隔发送2.5万瓦的脉冲,在冗余编码系统发明前,在超过3亿公里的距离上,高能脉冲发信是增加数据带宽的了不起办法。这个系统可能由Boguslavskii制作。影像分离为一个个点进行传送,但各个像素的灰度可能通过模拟脉冲的位置进行编码而非二进制数值。这一高质量的传递系统有90像素每秒的速率,传送1440x1440的图像约需要6小时。
(《苏联时代的太空相机》,本人译作)
高GHz,大功率脉冲发信,可以理解为在尽量短的时间内(瞬时功率可以很大),利用高频载波提高脉冲发信单周期内能传递的周波数的同时保证冗余度,实现跨越数亿公里的有效通信。
按上文计算当年地火速率只有90x7bit(估计灰度信息6-8bit,取中值7)≈0.6kbps≈0.07kB/s
现在34kB/s已经很了不起了
以上。
PS:关于这个的资料其实挺多,但有些人不要看了个“干货”视频看了点书就跑过来胡说…起码自己先吃透吧
主要原因是距离和能量。一个36万公里,一个5500万公里。就是真空,这么远的距离一样是对信号有衰减的。不想衰减就加大功率,但航天器的供电其实都很紧张。
火星车网速只有34Kb/s这个说法说的是图片的传输速度,实际速率要快一些。
好奇号与地球直接通讯,数据速率大约是8 kb/s,与火星探测器(绕火星的中继卫星)的速度可以到 2MB/s,火星探测器与地球的速率是256 kb/s。每次探测器从漫游车上空飞过,他们能通信8分钟,最多传输250MB的数据。然后这250MB数据需要花20小时传回地球。好奇号本身是用核燃料供电,听着挺厉害,但其实只是时间久,持续发电量不高,所以每天只够好奇号传几个小时数据的。
一天下来,实际发不出多少。如果功率管够,加上中继,几十M/s其实是可以做到的。
像月兔2号月球车,直接和地球通讯是280kbps,发射功率才2瓦。加上鹊桥就可以上1M。但实际常年只用1.4Kb/s的速度,因为省电、数据慢点传输也稳定。
至于当年登月,那时用的是黑白、10帧/秒的视频,而且每一帧还抽了近一半的行数——老式电视画面是一行一行扫描出来的,本来是525行,直播用的是325行。发射功率20瓦,理论最大速率是625kB/s
实时传送的信息就是通话、各种测量数据、直播画面。撇去直播画面后,其余的没多少数据量。数据量大头都是直播画面,且已经把当时的数据通讯能力跑满了——NASA本来是不准备直播的,抽帧画面只是用来看个大概的,为了确保关键事件上拍到清晰的的画面,摄像机是可以拍摄500行画面的,但传输速度就只有0.625帧/秒了。
NASA是后来才决定直播的,在阿波罗1号被大火烧了后,修改方案时顺带升级了通讯系统。后来几次登月甚至专门带了一个3米的抛物线天线架设在月球上,专门发射直播画面信号。可见当年NASA为了搞直播,也是下了很大力气的。
电视信号(TV)占去了很大一块带宽。
至于登月的彩色画面或者清晰的黑白照片,那全是胶片摄影机拍好,返回地面后冲洗出来的。
如果月球是1公里外公交站的话,对绝大部分省份来说,火星在省外。
换到欧洲国家,是国外。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有