无线网络导论
无处不在的连接
过去十年最具变革性的技术趋势之一,是网络连接的普及以及人们对”随时随地在线”的日益期待。无论是查收邮件、语音通话、网页浏览,还是无数其他应用场景,如今我们都期望能够不受地点、时间或环境的限制访问这些在线服务:在奔波途中、排队等待时、办公室里、地铁上、飞行中,以及任何介于其间的场景。当下,我们往往仍需主动寻找网络连接(例如搜寻附近的 WiFi 热点),但毫无疑问,未来属于无处不在的连接——互联网接入将 omnipresent(无所不在)。
无线网络正处于这一趋势的核心。广义而言,无线网络指任何不通过线缆连接的网络,正是这一点为用户带来了期望中的便利与移动性。鉴于应用场景的多样性,我们有理由期待出现数十种不同的无线技术来满足各类需求,每种技术都有其独特的性能特征,并针对特定任务和场景进行了优化。如今,我们已有十余种广泛应用的无线技术:WiFi、蓝牙、ZigBee、NFC、WiMAX、LTE、5G NR、HSPA、EV-DO、早期的 3G 标准、卫星服务,等等。
因此,面对如此多样的技术,对无线网络性能做出笼统的概括是不明智的。但好消息是,大多数无线技术都遵循共同的工作原理,面临相似的权衡取舍,并受制于共同的性能标准与约束。一旦我们揭示并理解了这些无线性能的基本原理,其他问题便会迎刃而解。
此外,尽管通过无线电通信传输数据的机制与有线世界截然不同,但从用户体验的角度来看,结果应当是相同的——相同的性能,相同的效果。长远来看,所有应用都将通过无线网络交付;只是某些应用可能比其他应用更频繁地通过无线方式访问。不存在所谓的”有线应用”,也没有人需要这种区分。
所有应用都应在任何底层连接条件下表现良好。作为用户,你无需关心底层使用的技术;但作为开发者,我们必须未雨绸缪,架构应用以预见不同类型网络之间的差异。好消息是,我们为无线网络所做的每一项优化,都将转化为所有其他场景下的更好体验。让我们深入探讨。
无线网络类型
网络是相互连接的设备群组。对于无线网络而言,无线电通信通常是首选媒介。然而,即使在无线电驱动的范畴内,也有数十种不同的技术,分别适用于不同规模、拓扑结构和截然不同的应用场景。说明这种差异的一种方法是根据”地理范围”对应用场景进行分类:
| 类型 | 范围 | 应用 | 标准 |
|---|---|---|---|
| 个域网 (PAN) | 个人活动范围内 | 外设线缆替代 | 蓝牙、ZigBee、NFC |
| 局域网 (LAN) | 建筑物或园区范围内 | 有线网络的无线延伸 | IEEE 802.11 (WiFi) |
| 城域网 (MAN) | 城市范围内 | 无线网络互联 | IEEE 802.16 (WiMAX) |
| 广域网 (WAN) | 全球范围 | 无线网络接入 | 蜂窝网络 (5G、LTE 等) |
表 5-1. 无线网络类型
上述分类既不完整也不完全精确。许多技术和标准始于特定应用场景,例如蓝牙最初用于 PAN 应用和线缆替代,但随着时间推移获得了更强的能力、更远的覆盖范围和更高的吞吐量。事实上,最新的蓝牙标准现已支持与 802.11 (WiFi) 的无缝互操作,以应对高带宽场景。类似地,WiMAX 等技术最初作为固定无线解决方案出现,但随后增加了移动能力,使其成为其他 WAN 和蜂窝技术的可行替代方案。
这种分类的目的并非将每种技术划分到独立的类别中,而是突出每种应用场景的高层次差异。有些设备可以接入持续电源;有些则必须不惜一切代价优化电池续航。有些需要 Gbit/s 以上的数据速率;有些则设计用于传输数十或数百字节的数据(例如 NFC)。有些应用需要始终在线的连接,而有些则可以容忍延迟。这些以及大量其他标准决定了每种网络类型的原始特征。然而,一旦标准确立,它们会持续演进:更好的电池容量、更快的处理器、改进的调制算法,以及其他进步不断扩展每种无线标准的应用场景和性能。
你的下一个应用可能通过移动网络交付,但也可能依赖 NFC 进行支付、通过蓝牙借助 WebRTC 进行 P2P 通信、通过 WiFi 进行高清流媒体传输。这不是选择或押注单一无线标准的问题!
无线网络性能基础
每种无线技术都有其自身的约束和限制。然而,无论使用何种具体的无线技术,所有通信方法都有最大信道容量,这由相同的基本原理决定。事实上,克劳德·E·香农为我们提供了一个精确的数学模型来确定信道容量,无论使用何种技术。
信道容量是最大信息传输速率
C 是信道容量,以比特每秒为单位。
BW 是可用的带宽,以赫兹为单位。
S 是信号功率,N 是噪声功率,它们都以瓦特为单位。
尽管有所简化,上述公式涵盖了我们理解大多数无线网络性能所需的所有关键洞见。无论名称、缩写或规范版本号如何,可实现数据速率的两个基本约束是可用带宽的总量以及接收器和发送器之间的信号功率。
带宽
与有线世界不同——在那里可以在每个网络对等点之间铺设专用线缆——无线电通信本质上使用共享媒介:无线电波,或者如果你愿意,电磁辐射。发送器和接收器必须事先就通信将发生的特定频率范围达成一致;一个明确定义的范围确保了设备之间的无缝互操作性。例如,802.11b 和 802.11g 标准都在所有 WiFi 设备上使用 2.4–2.5 GHz 频段。
谁来决定频率范围及其分配?简而言之,是各国政府(图 5-1)。在美国,这一过程由联邦通信委员会 (FCC) 管理。事实上,由于不同国家的政府法规不同,某些无线技术可能在一个地区有效,而在其他地区无效。不同国家可能(而且经常)将不同的频谱范围分配给相同的无线技术。
抛开政治因素,除了拥有用于互操作的共同频段外,最重要的性能因素是所分配频率范围的大小。正如香农模型所示,总体信道比特率与分配范围直接成正比。因此,在其他条件相同的情况下,可用频率范围翻倍将使数据速率翻倍——例如,从 20 MHz 增加到 40 MHz 的带宽可以使信道数据速率翻倍,这正是 802.11n 相对于早期 WiFi 标准提升性能的方式!
最后,值得注意的是,并非所有频率范围都提供相同的性能。低频信号传播更远,覆盖更大区域(宏蜂窝),但代价是需要更大的天线,且更多客户端竞争接入。另一方面,高频信号可以传输更多数据,但传播距离较短,导致覆盖区域较小(微蜂窝),并需要更多的基础设施。
某些频率范围对某些应用而言比其他频率更有价值。仅广播应用(例如广播电台)非常适合低频范围。另一方面,双向通信受益于使用更小的蜂窝,这提供更高的带宽和更少的竞争。
图 5-1. FCC 对 2,300–3,000 MHz 频段的无线电频谱分配
全球频谱分配与监管的简史
如果你在无线通信领域花费任何时间,都不可避免地会陷入关于当前频谱分配和监管流程现状与优点的无数辩论中。但历史是怎样的呢?
在无线电的早期,任何人都可以出于任何目的使用任何频率范围。当 1912 年《无线电法》在美国签署成为法律并强制要求无线电频谱的许可使用时,这一切都改变了。原始法案的部分动机源于对泰坦尼克号沉没事件的调查。有人推测,如果所有附近船只都监控适当的频率,这场灾难本可以避免,或者可以挽救更多生命。无论如何,这项新法律为无线通信的国际和联邦立法开创了先例。其他国家纷纷效仿。
几十年后,1934 年《通信法》创建了联邦通信委员会 (FCC),此后 FCC 一直负责管理美国境内的频谱分配,实际上通过将其细分为越来越小的、供专属使用的区块来对其进行”分区”。
不同分配的一个好例子是”工业、科学和医疗” (ISM) 无线电频段,该频段最初于 1947 年在国际电信会议上确立,顾名思义,被保留用于国际用途。2.4–2.5 GHz (100 MHz) 和 5.725–5.875 GHz (150 MHz) 频段——它们支撑着我们大部分的现代无线通信(例如 WiFi)——都属于 ISM 频段。此外,这两个 ISM 频段也被视为”非授权频谱”,允许任何人在这些频段中运营无线网络——无论是商业还是私人用途——只要使用的硬件符合规定的技术要求(例如发射功率)。
最后,由于无线通信需求的增长,许多政府已开始举行”频谱拍卖”,将特定频段的信号传输许可出售。例子不胜枚举,但 2008 年举行的 700 MHz FCC 拍卖是一个很好的说明:美国境内的 698–806 MHz 频段被拍卖给十余个不同的竞标者,总价达 195.92 亿美元(该频段被细分为多个区块)。是的,是 billion,以”b”开头。
带宽是一种稀缺且昂贵的商品。当前的分配流程是否公平是一个众说纷纭的话题,已有大量笔墨和书籍对此进行讨论。展望未来,有一点我们可以确定:它将继续是一个高度争议的讨论领域。
信号功率
除了带宽之外,所有无线通信的第二个基本限制因素是发送器和接收器之间的信号功率,也称为信噪比 (S/N ratio) 或 SNR。本质上,它是一种比较期望信号电平与背景噪声和干扰电平的度量。背景噪声越大,信号就必须越强才能承载信息。
就其本质而言,所有无线电通信都是在共享媒介上进行的,这意味着其他设备可能产生不必要的干扰。例如,在 2.5 GHz 运行的微波炉可能与 WiFi 使用的频率范围重叠,产生跨标准干扰。然而,其他 WiFi 设备,例如邻居的 WiFi 接入点,甚至同事接入同一 WiFi 网络的笔记本电脑,也会对你的传输造成干扰。
在理想情况下,你将是特定频率范围内唯一的用户,没有背景噪声或干扰。不幸的是,这不太可能。首先,带宽稀缺;其次,无线设备数量太多,无法实现这一点。相反,为了在存在干扰的情况下达到期望的数据速率,我们可以增加发射功率从而提高信号强度,或者减小发送器和接收器之间的距离——当然,也可以两者兼顾。
路径损耗,或路径衰减,是信号功率随传输距离增加而降低的现象——确切的降低速率取决于环境。对此的完整讨论超出了本书范围,但如果你好奇,可以咨询你最喜欢的搜索引擎。
为了说明信号、噪声、发射功率和距离之间的关系,想象你在一个小房间里与 20 英尺外的人交谈。如果没有其他人在场,你可以用正常音量交谈。然而,现在向同一个房间添加几十个人,就像在拥挤的派对上,每个人都在进行自己的对话。突然间,你不可能听清同伴的声音了!当然,你可以开始大声说话,但这样做会增加周围每个人的”噪声”。反过来,他们也会开始大声说话,进一步加剧噪声和干扰的数量。不知不觉中,房间里每个人都只能从几英尺远的地方与他人交流(图 5-2)。如果你曾在喧闹的派对上失声,或者不得不凑近才能听清对话,那么你就亲身体验过信噪比。
图 5-2. 日常场景中的蜂窝呼吸和远近效应
事实上,这个场景说明了两个重要效应:
远近问题 (Near-far problem)
一种接收器捕获强信号从而使接收器无法检测较弱信号的状况,有效地"排挤"了较弱信号。
蜂窝呼吸 (Cell-breathing)
一种覆盖区域或信号距离根据累积噪声和干扰水平而扩张和收缩的状况。
一个或多个你旁边的大声说话者可以屏蔽来自更远处的较弱信号——这就是远近问题。类似地,周围对话的数量越多,干扰就越大,你能从中辨别有用信号的范围就越小——这就是蜂窝呼吸。毫不奇怪,这些同样的限制也存在于所有形式的无线电通信中,无论协议或底层技术如何。
调制技术
可用带宽和信噪比是决定每个无线信道容量的两个主要物理因素。然而,信号编码所采用的算法也可能产生显著影响。
简而言之,我们的数字字母表(1 和 0)需要被转换为模拟信号(无线电波)。调制是数模转换的过程,可以使用不同的”调制字母表”以不同效率对数字信号进行编码。字母表和符号速率的组合然后决定了信道的最终吞吐量。作为一个实际例子:
接收器和发送器每秒可以处理1,000个脉冲或符号(1,000波特)。
每个传输的符号代表不同的比特序列,由所选的字母表决定(例如,2比特字母表:00、01、10、11)。
信道的比特率是1,000波特 × 每次2比特,即每秒2,000比特。
调制算法的选择取决于可用技术、接收器和发送器的计算能力,以及信噪比。高阶调制字母表的代价是对噪声和干扰的鲁棒性降低——天下没有免费的午餐!
别担心,我们不打算一头扎进信号处理的世界。相反,重要的是要理解调制算法的选择确实会影响无线信道的容量,但它也受制于信噪比、可用处理能力以及所有其他常见的权衡。
真实世界的无线性能测量
我们对信号理论的简要速成课程可以总结如下:任何无线网络的性能,无论其名称、缩写或版本号如何,从根本上都受到少数几个众所周知的参数限制。具体而言,是分配的带宽总量以及接收器和发送器之间的信噪比。此外,所有无线电驱动的通信都:
在共享通信媒介(无线电波)上进行
受限于使用特定的带宽频率范围
受限于使用特定的发射功率
受制于持续变化的背景噪声和干扰
受制于所选无线技术的技术约束
受制于设备的约束:外形尺寸、功率等
所有无线技术都宣传峰值或最大数据速率。例如,802.11g 标准能够达到 54 Mbit/s,802.11n 标准将这一标准提高到 600 Mbit/s。类似地,一些移动运营商宣传 LTE 的吞吐量超过 100 Mbit/s,5G 网络更是承诺 Gbit/s 级别的速度。然而,在分析所有这些数字时,最常被忽视的重点是对”理想条件下”的强调。
什么是理想条件?你猜对了:最大分配带宽、独占使用频谱、最小或没有背景噪声、最高吞吐量的调制字母表,以及 increasingly(越来越多地)并行传输的多路无线电流(多输入多输出,或 MIMO)。不用说,标签上看到的数字与你在真实世界中体验到的可能是(读作:将会是)非常不同的。
可能影响你无线网络性能的几个因素:
接收器和发送器之间的距离
当前位置的背景噪声量
同一网络中用户的干扰量(小区内)
其他附近网络中用户的干扰量(小区间)
接收器和发送器处可用的发射功率
处理能力和所选的调制方案
换句话说,如果你想要最大吞吐量,那么尝试消除任何你可以控制的噪声和干扰,将接收器和发送器尽可能靠近,给它们提供所需的全部功率,并确保两者都选择最佳的调制方法。或者,如果你执着于性能,干脆在两者之间拉一根物理线缆!无线通信的便利性是有代价的。
测量无线性能是一项棘手的工作。接收器位置的微小变化,仅几英寸,就可能轻易使吞吐量翻倍,而片刻之后,吞吐量可能再次减半,因为另一个接收器刚刚唤醒并正在竞争接入无线信道。就其本质而言,无线性能是高度可变的。
最后,请注意,之前的所有讨论都完全集中在吞吐量上。我们是故意忽略延迟吗?事实上,到目前为止确实如此,因为无线网络中的延迟性能与所使用的具体技术直接相关,而这正是我们接下来要讨论的主题。