好问题。
首先,不考虑远古时代的终端机,题主所说的这种东西在现代也有大量的使用。它叫「瘦客户机」。这种东西大量应用于银行、证券公司、房产中介、保险公司等对屏幕帧率、色彩、计算机性能几乎毫无要求的场合。成本很低,瓶颈在于中央服务器性能。(因为部署瘦客户机和终端服务的场景通常都能很方便地通过以太网连接,选用稍好一点的千兆交换机,网络传输则不是瓶颈)
然而,题主想问的估计是:未来有可能计算资源完全集中在云上,家家户户都只买输入输出设备而无需(或很少需要)CPU/GPU性能了。这种模式能很广地普及么?
未必。
首先,把网络的概念从「局域网」迁移到「互联网」,你会发现其实网络本身就已经是瓶颈了。你也许会说,现在的家庭宽带不都是光纤入户,带宽100M起跳的么?
是的,可那是「最后一公里」。
公网的拓扑结构是很复杂的话题。简而言之,你坐在家里用着100M的光纤,连接到的是一张错综复杂的,由无数个节点(网关/路由)复杂交织成的网络。而这些节点,则很可能,其吞吐量均分给同时使用的用户,并不足100M,甚至本来总量就不足100M。而你所看到的接近12MB/s(大约100Mb/s)的速度,只不过是因为运营商给你分配到最近的加速节点上了。
所以说,以目前(以及未来一段时间内)的网络条件,是很难做到「随时随地都能高速率、零延迟地连接到你的云电脑」的。以及,移动网络就更变幻莫测了。学生朋友们估计深有体会,平时速度很快的4G,在熄灯断网以后还能维持那个速度么?
第二天需要上交作业,而你却因为网速原因,完全无法使用自己的电脑。这个事实你能接受么?
此外,在人们日益重视视听体验所带来的感官享受的今天,大屏已经不再是什么稀罕的东西了。别说什么1440x900、1680x1050,现在就连1080p的屏幕都快要白菜价了,2K、4K的屏幕也越来越多地出现在普通用户的桌面上。与此同时,屏幕的刷新率一般是60Hz,随着VR的崛起,90Hz甚至120Hz也不再新鲜。题主可以自行计算一下,2560x1440x60Hz的视频流大概需要耗费多大的带宽去传输。
牺牲时间去实现视频流压缩也是不可取的哦。如果视频画面延迟数百毫秒甚至一秒,你还有心情干什么?
其次,千万不要以为电脑只是用来看看网页做做PPT。
围绕着计算机的软硬件工具多样性十分丰富:
这些行业/专业工具,许多非常昂贵,许多体积巨大(10GB以上甚至更多),许多对搭配使用的软硬件有各自的接口和标准要求。让这些行业的用户都迁移到云上很难,让这些行业现有的工具全部兼容云计算平台更难。
最后,一个不得不面对的问题:保密性和容灾保证。
有多少人因为公司政策(不允许将公司数据上传至第三方云服务)而被禁止使用印象笔记等服务?有多少在线协作/项目管理/网盘产品因为数据归属原因被其客户拒之门外?(亲身遇到过一家)甚至,有多少公司为了保护商业机密,使全部员工的设备与互联网物理隔离?
存储在云上的数据,要不要加密?你怎样确保它加密了?你怎样确保每个环节都是加密的?怎样确保不可抗力不会影响到其加密政策?
如果你告诉你的老板,公司的数据被存在一个名叫「云」的地方,老板会不会有意见?
同理,又怎样保证数据存在云上,不会因为员工误操作、黑客入侵、自然灾害原因灰飞烟灭?云计算平台承诺的99.9999%可靠性和多副本真的不会出问题么?(参考腾讯云发生的数据事故:如何看待腾讯云硬盘故障,导致创业公司线上生产数据完全丢失一事?)
你可以买一块桌面硬盘甚至NAS去备份公司的关键数据,云上的数据呢?
话说回来,在某些领域,以云为核心(或卖点)的产品在某些特定的场景下被需要、被喜爱。例如:
因为在这些场合,「云」确实解决了用户的一些问题,比如随时随地工作、与同伴协同工作、沟通、管理版本、在外地与客户沟通。
但是,完全取代CPU/GPU等本地计算资源,把「电脑」抽象成「只有输入、输出设备和网络连接」的终端则是一个过于理想的想法。不可否认「云」确实是未来的趋势概念,但要普及得这么理想、彻底,则还有相当漫长的路要走。