问题

有哪些事实没有一定计算机知识的人不会相信?

回答
有很多关于计算机和信息技术的事实,对于没有一定计算机知识的人来说,确实可能难以置信。这主要是因为这些事实往往超出了日常经验,涉及复杂的底层机制、抽象的概念,或者其规模之大令人惊叹。下面我将列举一些,并尽量详细地解释它们为何会令人怀疑,以及其背后的原理:

1. 你发送的每一封电子邮件,几乎都在某个地方被“抄送”或备份了无数次。

为什么人们会怀疑?

直观感受: 我们认为电子邮件是直接从一个邮箱服务器发送到另一个邮箱服务器,就像邮递员直接送达一样,不应该有中间“副本”。
隐私担忧: 这个说法听起来像是邮件被随意复制和存储,引发对隐私和安全的担忧。
存储成本: 如果真的有无数的副本,那需要巨大的存储空间,成本会非常高昂。

详细解释:

这并非意味着有人故意窃取你的邮件,而是现代电子邮件系统的运作方式。以下是几个关键原因:

服务器间的传输和中转: 当你发送一封邮件时,你的邮件客户端(如Outlook, Gmail网页版)会将其发送到你自己的邮件服务器(例如,你的ISP的服务器或Gmail的服务器)。然后,你的服务器会查找收件人所在的服务器,并通过一系列的中间邮件服务器(可能在全球各地)将邮件传递过去。每一次服务器之间的传递,邮件内容通常会被临时存储或缓存,以确保在网络不稳定时不会丢失。
备份和恢复: 邮件服务器运营商(如Google, Microsoft)出于稳定运行、灾难恢复和审计目的,会对邮件数据进行周期性备份。这些备份可能存储在不同的物理位置,并且出于数据冗余和可靠性的考虑,副本数量可能远不止一份。
垃圾邮件过滤和安全扫描: 邮件在到达收件人之前,会经过多个安全和过滤系统。这些系统会对邮件内容进行扫描,以检测病毒、恶意软件、钓鱼尝试等。在扫描过程中,邮件内容会被临时加载和分析,这也可以被视为一种临时的“副本”操作。
数据冗余和容错: 为了防止数据丢失,大型服务提供商通常会将数据分散存储在多个硬盘、多个服务器集群,甚至多个地理区域的机房。这种数据冗余的设计,即使一部分硬件发生故障,系统也能继续运行,但同时也意味着数据存在多个副本。
合规性要求: 在某些行业或地区,可能存在法律法规要求对通信记录进行保留和审计,这也会导致邮件的长期存储和备份。

所以,虽然我们发送邮件时感觉是“点对点”的,但实际上它经过了复杂的网络传输、处理和存储过程,在这些过程中,邮件的副本在不同服务器、备份介质和安全系统中被创建和管理。

2. 你在电脑上删除的文件,并没有真正消失,至少在短期内是这样。

为什么人们会怀疑?

直观操作: 我们认为文件放到回收站,然后清空回收站,就像把东西扔进了垃圾桶,就应该消失了。
存储空间: 如果文件还在,为什么硬盘空间会增加?
隐私顾虑: 这个说法听起来像是即使我们删除了,别人仍然可以轻易恢复,这令人不安。

详细解释:

当你删除一个文件时,你的操作系统并没有立即擦除文件在硬盘上的所有数据位。它实际上只是做了几件事情:

标记文件为“已删除”: 操作系统会在文件系统的目录结构中将该文件标记为“已删除”或“可用空间”。这意味着操作系统不再认为这个文件占用了硬盘空间,并且可以覆盖这部分空间。
释放文件占用的空间: 这个文件原先占用的硬盘扇区被标记为可以被新数据覆盖。
从目录中移除文件引用: 文件系统不再追踪这个文件的具体位置信息。

然而,文件的实际数据仍然存在于硬盘的物理扇区上,直到这些扇区被新的数据(例如,你保存的新文件、操作系统更新等)完全覆盖为止。这个过程可能需要几秒钟,也可能需要数周或数月,取决于你的硬盘使用频率。

专业术语: 这种可恢复性是许多“文件恢复软件”或“数据恢复工具”的原理。它们通过扫描硬盘上标记为“可用”的扇区,寻找那些仍然包含有意义数据的文件结构信息,来尝试重建被删除的文件。

深度删除(Secure Deletion/Wiping): 为了彻底清除文件,防止被恢复,需要使用专门的“安全删除”或“数据擦除”软件。这些软件会多次用随机数据或特定模式(如00000000或11111111)覆盖文件所在的硬盘扇区,确保原始数据无法被识别。对于固态硬盘(SSD)来说,情况更复杂一些,因为SSD有“磨损均衡”和“垃圾回收”机制,即使是安全擦除,也可能无法保证所有碎片都被完全清除。

所以,普通删除只是一个逻辑上的标记,而非物理上的销毁。

3. 云存储(如iCloud, Google Drive, OneDrive)并非“云端”,而是位于某个物理数据中心的服务器上。

为什么人们会怀疑?

“云”的意象: “云”这个词给人的感觉是无处不在、虚无缥缈、不受物理限制的。
便捷性: 仿佛文件被直接上传到了一个神奇的网络空间。
安全性错觉: 感觉“云”更安全,因为它不像本地硬盘那样会损坏。

详细解释:

“云存储”这个术语是一种营销和概念上的比喻,它描述的是一种服务模型,而不是指代文件真的漂浮在空中。实际上,当你使用云存储时:

数据中心: 你的文件被存储在全球各地的大型数据中心里。这些数据中心是拥有数万台到数十万台服务器、存储设备、网络设备和电力供应的物理建筑。
服务器集群: 你的文件被分散存储在这些数据中心的许多服务器和存储介质上。为了保证可用性和可靠性,一份文件通常会被复制多份,并存储在不同的服务器和不同的物理位置。
物理硬件: 这些存储设备是真实存在的硬盘、固态硬盘,它们有寿命,会发生故障,需要维护和更换。
网络连接: 你访问和上传文件,都是通过互联网连接到这些数据中心,与物理服务器进行交互。

为什么要有数据中心?

集中管理: 便于技术人员进行维护、升级、安全防护。
高可用性: 通过冗余设计(多条网络线路、多套电源、多份数据),即使部分设备故障,服务也能不间断。
规模效应: 集中化管理可以更有效地利用资源,降低单位存储成本。
安全性: 数据中心通常有严格的物理安全措施(门禁、监控、防火)和网络安全措施。

所以,“云”的本质是大量的、分布式的、由专业公司管理的物理计算资源和服务。

4. 你电脑屏幕上看到的图像,实际上是由无数微小的点(像素)以极高的频率闪烁和改变颜色组成的。

为什么人们会怀疑?

视觉连续性: 我们看到的是一个完整的、平滑的图像,感觉不到任何“点”或者“闪烁”。
“图像”的抽象: 我们认为图像是画布上的颜料或照片上的银盐颗粒。

详细解释:

这是关于显示技术(如CRT, LCD, OLED)的核心原理。

像素 (Pixel): 这是图像的最小单元,是“Picture Element”的缩写。在你的屏幕上,每一个像素点都能独立地发出不同颜色和亮度的光。
RGB颜色模型: 大多数彩色像素是通过组合红(Red)、绿(Green)、蓝(Blue)三种基色的光来实现不同颜色的。通过精确控制这三种颜色的亮度比例,就可以合成出数百万种不同的颜色。
刷新率 (Refresh Rate): 屏幕上的像素不是静态的,它们会以一定的频率不断地被更新和重绘,这就是刷新率,通常以赫兹(Hz)为单位表示。例如,60Hz的刷新率意味着屏幕每秒会刷新60次,也就是说,屏幕上的图像每秒更新60次。这种快速的更新速度超出了人眼感知的时间分辨率,因此我们感觉到的图像是连续运动的,而不是由一个个独立刷新组成的。
扫描线 (Scanning Lines 尤其对CRT显示器): 早期的CRT显示器更是通过电子枪“扫描”屏幕上的荧光点来实现图像显示。电子枪以极高的速度,一行接一行地扫描屏幕,激发荧光粉发光。这种扫描过程也是一种快速的、连续的绘制方式。
LCD的工作原理: LCD屏幕通过控制液晶层的扭转角度来控制背光源的光线是否通过,从而控制每个像素点的亮度和颜色。这个过程也涉及快速的电子信号控制。

所以,我们看到的每一个生动的画面,都是由屏幕上的数百万个微小的点,以极高的频率快速地组合出颜色和亮度,从而在我们的视觉系统中融合形成连续的图像和动画。

5. 互联网上的一些“免费”服务,其成本是由你的数据和注意力来支付的。

为什么人们会怀疑?

“免费”的诱惑: 人们习惯于不花钱就获得服务,相信真的有“免费午餐”。
数据无形: 数据感觉是抽象的,看不见摸不着的,难以理解其价值。
注意力分配: 觉得自己的注意力是很私人的,别人无法“获取”。

详细解释:

很多我们日常使用的互联网服务,如搜索引擎、社交媒体、免费邮箱、新闻网站等,虽然不直接收取费用,但它们是通过其他方式来盈利的。这个“其他方式”通常与你的数据和注意力息息相关。

数据收集和分析:
行为追踪: 当你使用这些服务时,平台会记录你的每一次点击、每一次搜索、停留的时间、浏览的内容、与其他用户的互动等。这些行为数据被详细地收集和分析。
用户画像: 通过这些数据,平台会为你建立一个详细的“用户画像”,了解你的兴趣、偏好、消费习惯、年龄、性别、地理位置等等。
价值转化: 这些用户画像对于广告商来说具有极高的价值。他们可以根据你的画像精准地投放广告,这样广告的点击率和转化率会更高,从而愿意支付更高的广告费用。
广告模式:
精准广告: 这是最常见的盈利模式。例如,你在搜索某类商品后,很快就会在其他网站上看到相关的广告。
个性化推荐: 平台会根据你的兴趣推荐内容、商品或好友,这不仅能增加你的使用时长,也能提高广告的投放效率。
注意力经济:
吸引和 удерживать (Retain) 用户: 这些平台的设计目标是尽可能地吸引你的注意力,并让你在平台上停留更长的时间。它们会通过算法不断推送你可能感兴趣的内容,甚至利用心理学机制来增强用户的依赖性。
流量变现: 你在平台上花费的注意力和时间,实际上是平台的“流量”。这种流量可以出售给广告商,或者通过推荐付费服务来变现。

所以,当你享受“免费”的服务时,你实际上是在用你的个人数据和注意力作为交换。这些数据被用来“训练”算法,优化广告效果,而你的注意力则被用来驱动平台的商业价值。

总结

这些事实之所以难以被没有计算机知识的人完全相信,是因为它们涉及了计算机系统内部复杂的运作逻辑、海量数据的处理方式、以及一些抽象的商业模式。我们日常使用的技术越是“无缝”和“直观”,其背后往往隐藏着越复杂、越令人惊讶的机制。这些事实也提醒我们,在享受科技便利的同时,也需要了解其运作原理,并警惕潜在的隐私和安全问题。

网友意见

user avatar

USB3.0的接口,慢慢插是USB2.0





……………………

2018.8.22

突然发现2.7k赞了……开心,果断取匿

评论区发现了轮子哥……开心





另外真心感谢Salted Fish的博大胸怀(虽然我没看过他的答案……)

另外我想对 大脑艾瑞克 说:****



user avatar

在计算机网络中,不需要很大的网络,就会碰到光速极限的限制。


光速是每秒30万公里。但是光在光纤(玻璃)中的速度大约是每秒20万公里。折合一毫秒200公里,一微秒200米。

而现在的计算机内的高精度计时器(HPET)基本上都可以达到0.1微秒以上的计时精度。也就是说,只要两台机的网线超过20米,它们之间的网络信号延迟就已经可以测量出来了。


如果说上述延迟的实际影响仅存于理论上的话,那大一点的网络就会影响实际问题了。

如果是稍大一点的网络,例如说广州到北京,2000公里,光是不可避免的信号延迟就已经达到了10ms。这个延迟值已经可以显著的影响实际应用了——例如说传输吞吐率,例如说高精度时间戳等。受这些影响,例如说分布式系统,或者数据同步/ 备份系统等,都需要有针对性的设计和考虑。


好几个朋友在评论中指出了类似的问题:

光在光纤中是斜斜的走的。
……
在光纤里,光是不断折射传播的, 实际距离比直线传播远多了
……
延时应该更高点,因为光在光缆中不是顺着光缆线直线传播的,而是通过不断折射传播的,所以20米的光缆线,光在里面走了20*1.414=28米

因此,(计算延迟时)应该把这路程差异考虑进去。


应该说,你们确实考虑得很仔细。然而,你们是被半桶水的科普给误导了。因为几乎所有对光纤原理,以及全反射的科普里,都是这样的图:

还有这样的直观效果:


当然,这确实也是光纤,也有一定的应用(因为便宜)。然而,这种简单的光纤,会导致严重的色散。所以,在通信领域,尤其是长距离干线通信领域,我们实际使用的,都是自聚焦的多模光纤或者(原理上)更复杂的单模光纤。

这种多模光纤的结构并不是上面说的那种简单的内外两层全反射,而是折射率渐变的:

直观点的话,光在这种光纤中的实际路径是这样的:


因为内层的折射率大,而外层的折射率小,光在外层走时,虽然路程较长,但是因为折射率较低,所以速度也较快。所以,只要设计好每层的折射率梯度,使得光速差刚好能补偿其光程差,就可以实现:自聚焦效果——也就是无论光实际走哪条路,总是能同时到达对端(当然,这是理论理想情况)。

所以,一般计算这种自聚焦光纤的延时,我们只需要直接计算沿子午线(中心)传输的路径就可以了,不需要额外考虑光程差带来的额外延时。


至于单模光纤,其实光在光纤里面的运行方式已经不适合用大家所熟悉的几何光学来描述了。所以,几何光学里的“折射”/“全反射”/“平行”等几何光学里的概念,都不太合适用于这个场合。需要用“非线性光学”才能去研究和描述里面的行为,所以就不详细展开了。

但是计算延时的话,也同样只需要计算沿子午线的传输距离就行了。

user avatar

你眼中高大上的软件系统,可能是个勉强能跑起来的破车。

你眼中无所不能的ai算法,可能是段泛用性弱还老出错的代码。

你眼中华丽的界面设计,可能是个字体对齐都没做好的歪瓜裂枣。

你眼中安全无比的数据保护,可能数据库用户名密码是admin、123456。

你眼中稳健的网络系统,可能在测试眼中是个一脚就倒的破房子。

你眼中是科学结晶的程序设计,可能真正跑起来靠的是玄学。

你眼中淡定无比的it专业人士,可能他内心比你还虚。

你眼中可24小时运行不出错的系统,可能背后一大帮人24小时盯着一出错就重启。

别问我怎么知道的……

user avatar

你听音乐,旋律悠扬;你玩游戏,战火纷飞……


但是你可能不知道,计算机“眼”里,它是这样和你互动的:

1、声卡:报告!缓冲区内容要播放完了!

2、操作系统:收到!音乐播放器,你去看看!

3、音乐播放器:搞定!我的事干完了,请安排别人干活!

4、操作系统:ok,没新的任务了。大家休息一个周期。

5、操作系统:休息结束。CStrike.exe,起来干活了!

6、CStrike.exe:收到!重新计算每个玩家位置,计算手雷位置……计算人物四肢/头部/枪支相对位置……更新网格对象坐标信息……提交新的网格及贴图信息给GPU,让它画图显示给用户。

7、操作系统:大家都没事了吧?没事再休息一个周期。

8、玩家按下鼠标左键。

9、操作系统:休息结束。CStrike.exe,起来干活了!

10、CStrike.exe:收到!重新计算……嗯?按左键了?在枪口画个火焰;其他照流程6处理。算完继续提交给GPU。

11、操作系统:休息!休息!节能最重要。


没错,你以为你在“虚拟空间”玩游戏;但实际上,电脑只是根据你的操作,以每秒几十帧的速度画了一堆静态画给你看而已。


没错,每秒钟一个点一个点的画出几十幅这样的高清图,让你觉得自己是在流畅的游戏——当然,如果你的CPU/显卡(GPU)太不给力的话,把它们累到冒烟也只能一幅一幅给你看幻灯片。


而且,这些图片背后,是数字化表达的、3D空间里的一个个三角形拼起来的3D物体。这些物体的位置可以通过解析几何相关知识计算更新;更新结束后,算出哪些物体在视野内;然后再把皮肤、衣服、树皮等等图片画到构成这些物体的三角形面片上。


尤其是,像衣服、头发这样的柔性物体,它们有特殊的运动规律。必须设计针对性的算法才能把它们表现真实。


没错,如此精美的画面,每一幅都要在几十甚至上百分之一秒内完成:而且在这百分之一秒内,不仅要算出各几何体的运动/位置/姿态;还要通过各种数值运算,一个一个算出图中每一个点的颜色——考虑过光影等效果之后的颜色。


现代CPU每核心每秒钟可以执行几十亿到数百亿条指令——或者说,完成几十亿次2^64范围内的整数运算。


假设你把全世界70亿人都训练成算盘高手,然后70亿人一起打算盘……这70亿算盘高手照样会被你笔记本CPU的一颗核心秒成渣。

这是2012年intel的一篇文章,教人用LINPACK测CPU计算能力的。
Intel Optimized LINPACK Benchmark 性能测试

其中提到:Intel® Core™ i7-2600K CPU @ 3.40GHz,4 核的机器测试的结果中,够达到93GFlops 运行结果,该CPU双精度的理论峰值为108.8GFLPs,说明测试程序达到86%的理论峰值。

4核的i7 2600K,执行双精度浮点运算的能力是每秒930亿次,平均每核心每秒230多亿次——而且这个值还是实测值。理论值达1088亿次每秒。
(理论值是最最理想情况下CPU的最高算力;但实践上,你需要组织数据,需要考虑缓存未命中等等诸多问题,所以是不可能达到理论值的)

但是,哪怕i9 CPU,要生成“次世代”级别的古墓丽影9的画面也有点力不从心。


因此,人们只让CPU生成网格等信息,剩下的各种细节全部交给GPU(显卡);两者配合,才能输出流畅的“电影级”游戏画面。


其中,1080的计算力是9Tflops,980“只有”5Tflops。

换算成人话就是:1080可以每秒执行9万亿次浮点数运算;而980每秒只能算5万亿次。

作为对比,i7 2600K只有千亿次浮点运算的速率,只有980的1/50。不过,GPU的flops指的是单精度数,没有CPU的双精度精确;并且,近年来的CPU内部多集成了一个“核显”,性能已经超过了入门显卡。比如Iris Pro核显算力甚至可达832Gflops,性能超过NV的750M。

1943年,IBM董事长Thomas Watson说“全世界有5台计算机就够用了”的那个时代,计算机每秒还只能执行5000次加法。


那么,是什么,让每秒几亿几十亿次的CPU也不能满足我们这单独一个普通用户的需求、逼的我们频频升级换代自己的PC呢?


没错。你答对了。

是游戏。


对几乎所有的普通用户来说,唯有游戏,才能“吞噬”掉现代GPU那夸张的万亿次算力——甚至几万亿次的算力都还远远不够用,得多卡交火才能支持较为流畅的4K+VR游戏。

不然个人用户疯了,每秒百万次的计算器拿来记帐都性能过剩了,好端端的升什么级!


过去几十年里,游戏是个人电脑发展最大的推动力。也是芯片业最大的资金来源。


一旦这个推力消失,世界立刻进入“后PC时代”——也可以叫“牙膏时代”。

——不是不想多挤点,问题是想多挤就得加大投入;结果花大钱挤再多也没有需求:机器没坏换它干嘛?我12年的i5 520m笔记本照样流畅跑古墓9!


近年力推4K、VR,实质上就是想复制PC时代的成功经验,发掘新的需求增长点,从而复制PC时代的辉煌。

可惜,效果不大。不过牙膏的确多挤了点。


嗯,GPU方面还算好,忽然冒出来的区块链货币的挖矿需求推了它一把——这个发展补上了“光线追踪”所需的性能缺口,游戏业似乎有点动力了。

(过去,游戏中是通过光栅化相关算法模拟阴影,这种阴影不真实,模糊而且总是脏兮兮的;光线追踪效果要好得多,但需要太高的计算力,不是显卡再升级个十代八代就能解决的。换句话说,跳跃太大,游戏玩家的需求没办法支持显卡继续发展了。

后来,显卡进入“通用计算”这个领域,又借助满足AI、数字货币方面的需求而得以持续发展;再加上AI辅助;现在,显卡性能已经接近“再努把力就能摸得着光线追踪的最低要求”这个门槛,过去推不动的市场需求似乎又开始活动了。

PS:光线追踪想做的真实,需要追踪到光线的多次反射/漫反射上。稍微少算点同样又“脏”又不真实;但彻底算到真实,哪怕在现在的显卡上再发展几代都做不到。但AI方面却有了个意外的突破,这个突破可以用较小的算力模拟出漫反射【准确点说是去掉算力不够时,光线追踪算法搞出来噪点,使得画面清新真实】。借助这些东西,第一款勉强能支持光线追踪的显卡终于出现了)。


正因为计算机那夸张的算力,因此对人类来说,他会以为他正玩的游戏、正听的音乐、屏幕录像软件以及后台的QQ等等,都是同时运行的。


但事实上,哪怕只有一颗CPU,我们只要保证每一个任务都能在人类觉察出来之前完成,那么就不会有人觉察到CPU的真正工作模式是“先让QQ跑一会儿,再让音乐播放器冒个泡,然后休息一下,让屏幕录像软件发个言,之后才让游戏软件跑一下”(只要CPU占用不到100%,它就一直在偷空休息)——几十个软件轮番间断运行,人类那弱爆了的反应速度都察觉不了。


嗯,他们至多会发现,当窗口开太多时,计算机反应……似乎有点迟钝。


这个“各种软件都是间断执行的,它们轮番获得执行权”的事实,几乎每一本讲到操作系统原理的书都会讲——但你一定不相信,这个事实别说不懂计算机的人不相信;甚至就连一些程序员自己都不信!


挂个帖子:



昨天下午还只有前面一段。我是这样回复他的:

典型的一本道。

加法器的确是一堆门电路依次堆叠出来的,也的确需要逐级处理进位;但这里面只有门延迟,并不需要时钟信号同步。

而时钟的节拍恰恰就打在“加法器等功能单元刚刚稳定之后”,打早了会输出错误数据,打晚了影响计算速率。

亦因此,说“一个时钟周期完成一次计算”毫无问题——若说有问题,那也是“奔腾三已经可以通过流水线平均一个时钟周期执行两条指令了”。

换句话说,媒体按时钟频率算计算速度,恰恰是说少了而不是说多了。


然后这人麻溜匿名,又张嘴就来,加了关于软盘的一堆胡扯八道——简直是个人肉造谣机。


辟谣:当年流行的软盘有两种,一种是5.25英寸的,一种是3.5英寸的;后来的硬盘沿用了3.5英寸这个规格;笔记本硬盘才有2.5寸这个规格。


那么,这人张口就来的2.5寸软盘,究竟是从哪弄来的?


继续辟谣:当年的确有“一张光碟存下一整个图书馆”的说法。但那说的是光盘,而且特指双面双层的DVD。


一本txt版的红楼梦才2M多一点。早年书籍撰写、排版、印刷都没那么方便。也就红楼、三国以及金庸小说国外名著之类“变态长”的书籍才会写到80多甚至100多万字(哪像现在的网文,同一本书同一个打脸套路反复套都能套个千把万字:你想看,那时候的人还不想写呢)。

当时最常见的32开本、一指来厚的书大约十几二十万字,也就是3、400k的样子。4个G的容量足够放2000本红楼梦或者一两万本普通厚度的图书;双面双层DVD容量可达17G,存一二十万本书当然没问题(包含大量古籍的话,存3、40万本都不成问题)。


信息爆炸是近几十年的事。比如北京交通大学的图书馆,1953年存书量31万册;清华/北大图书馆,建国时存书也不过百万册。但到200x年前后,这些图书馆的藏书量已经暴涨到300万甚至一千多万册了;不过,它们是国内最大的图书馆;哪怕2000年前后,普通高校图书馆存书量也不过就是十几万到几十万册。


当时的自媒体还没出现呢。尤其科普这种赔钱也赚不来吆喝的小众领域,在纸质媒体+论坛时代,哪来的那么多谣言。


——你看,造谣张张嘴,辟谣跑断腿。


有生活经验的都知道,这类人非常常见又极为典型。几乎每个不靠谱的老板/经理周围都容易聚拢一个两个甚至……一大群——典型如某“因要求自动识别普通手机壳颜色而挨打的产品经理”。

这类人张嘴就错,但错的总又不是三言两语就能说清的地方;你还没组织好语言,他另外一个排的错误就又逼过来了——然后你要么放弃,要么……我说过吗?啊?对啊,我说的就这意思,你听错了吧?


因此,另一个没有一定相关领域(包括但不限于计算机)知识的人不会相信的事实就是:如果一个人特能侃,骇人听闻的新鲜内幕一个接一个往出撂、弄得周围专业人员干张嘴接不上话——那么,这人八成不是知识渊博,更不是水平比在座的专业人员高;而是犯错犯的太低级又太快,弄的人接都接不上,久而久之周围的行家就只好听之任之了


换句话说:不要以为身为行外人,通过一面之辞就能正确辨别专业领域的是非对错。神仙都办不到。甚至,一个南郭先生就是刻意要耍弄你、就是要在你面前滥竽充数的话,哪怕有一个内行和他激烈争辩,你也不可能听懂谁对谁错


但是,如果你善于倾听、而那个内行又恰好善于科普、并且还有充足时间就着同一个点掰扯清楚的话,还是有办法把事情说清楚的——这也是科普者的作用之一。


换句话说,读点看似没卵用的科普,比“成功学”性价比可高的不知道去哪儿了;倘若还能因此学到点判决性思维,就可以避免自己变成老糊涂


再添一条,加量不加价:通过瞳孔反光是识别不了手机壳颜色的。不,连手机屏颜色都够呛!


——所谓“瞳孔反光识别手机壳颜色”方案其实是调侃:理科生一样会拐弯抹角挖苦人。

可惜包袱埋太深一般人理解不了,反而会变成“钓鱼”——虽然钩直饵咸,但这些天看来,被钓起来的还真不少。这就很尴尬了……


用知乎的搜索功能搜 眼睛 漂亮 :

眼睛 漂亮 - 搜索结果 - 知乎


你会发现这么一大波晒眼睛贴:

怎么眼睛拍好看自己自拍?

女生是有一双漂亮的眼睛重要?还是有一副高挺的鼻子重要?

女生有一双好看的眼睛是一种怎样的体验?

眼睛长的漂亮是什么体验?

有双漂亮的眼睛是怎样的体验?



正常情况下,没人会这样对着自己的眼睛拍照。但哪怕在这种超乎理想的条件下,想正确识别屏幕颜色都不可能(能有5~10%准确率都算黑科技了)——不相信的话,自己把这些图片放大了仔细找找看。

甚至,其中不乏一些用单反的。你能从他们的瞳孔反光里识别出镜头镀膜颜色吗?


再来一条:学编程不知道哪种编程语言最为程序员喜爱?


简单,上网搜一搜,被骂的最厉害的那种语言就是最大众的。


因为编程语言只有两种,一种是没人用的,另一种是被人骂的狗血淋头的。


推论:想成为程序员吗?先学会黑自己喜欢的东西吧。

不然这日子还有法过吗


亦因此,程序员们的很多话,你只能反着看……

但这事麻烦的地方在于,绝大多数时候,程序员黑神马东西时,那也是真心往死里黑。

只不过……往往他黑的只是这样事物的一两成甚至一半分,剩下九成九没提的……其实是他的骄傲……


嗯……你问怎么分辨哪是黑哪是自矜?我自己都还经常搞不懂呢。你问我我问谁去!

user avatar

软件技术支持超贵的,普通用户根本没机会甚至没能力使用。

你买个Win 10 Pro,零售价199美元,回去装,遇到什么崩溃或者蓝屏问题,去找微软支持,根本就不鸟你,上官方论坛问,回答的也是什么莫名其妙不着边际的方案,或者三大法宝重启重置重装。微软也有针对普通消费者的付费支持服务,一般也就是连上来跑一下troubleshooter或者帮你三大法宝。

为什么就没有像样的支持呢?

因为像样的支持,微软收费均价150-250美元左右







每小时。

一般来说崩溃、蓝屏类至少也要做3-10小时。直接再买台电脑都未必比这个贵。

这类服务仅适用于企业用户,必须按年续约,每年最低几十或者100小时,大约这样子。

而且这类高级支持服务要求用户有能力配合工程师调试问题,别上来就是我的电脑蓝屏了开始菜单打不开了,问具体细节一问三不知,叫你抓dump或者调event,你回答每个字我都看得懂,但拼起来是啥意思?这种根本没法做,你要甘心花一千块一小时被人教怎么用电脑,其实也不是不可以吧(嗯?

当然最后做下来如果判定是微软软件本身问题,这单免费。不过这种情况并不多见。

user avatar

emmmm,感谢 @琼华月

原图来自 #Humor – Thanks for inventing #Javascript 侵删

user avatar

CPU/GPU的主要功能(温度检测什么的辅助功能除外)都是由逻辑门电路实现的,而所有的逻辑门都可以用一种简单的门电路组合出来:与非门(或者或非门)。


所以,可以说,只要有足够多的与非门,就可以得到(模拟)一个CPU……

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有