TE 观点

数字创新时代的数据中心连接

作者:数据与设备事业部总工程师 David Helster

数字创新依赖于更快地传输更多数据的能力。 在 1980 年代,能够每秒传输 10 兆比特数据的电缆技术得到广泛应用,现代网络和互联网本身的基础诞生了。

 

这项技术的寿命长得惊人:它仍然与当今计算机上的网卡广泛兼容,尽管当今住宅网络中常见的电缆可以轻松达到每秒 1 千兆位 (Gbps) 传输速度,是最早型号的 1,000 倍。然而,与此同时,我们需要传输、存储、分析和处理的数据量显著增加。这是因为数据传输速度的每一次提升都推动人们使用创新方法来增加容量。例如,人工智能和机器学习之所以达到今天的成熟水平,是因为我们能够快速移动和处理大量数据。

 

虽然数字创新的步伐并没有放缓,但超越每个新的网络速度阀值变得越来越困难。如今,高速数据通信面临以下挑战:电缆及其连接的物理特性使得创建经济可行的解决方案比以往任何时候都更具挑战性,而在数据中心,对这种速度的需求最为关键。

铜线依然是主流

数据中心存放着我们每天用来相互发送信息、在线订购零售商品以及在交通高峰期指引自己的信息。 尽管高速全球网络可以将这些数据传输到很远很远的地方,但最终的阻塞点发生在大型数据中心的服务器之间,工程师们在那里进行训练人工智能模型和分析大量数据集的计算密集型工作。

 

在当今的数据中心中,单个连接以最快的速度在服务器、交换机和其他计算机之间以大约每秒 100 千兆位 (Gbps) 的速度高效可靠地移动数据。这大约是 1980 年代早期网络电缆吞吐量的 10,000 倍。有趣的是,这些电缆中采用的技术仍然大致相似。

尽管光纤技术取得了进步,但无源铜线仍然是短距离高速移动数据的首选传输方式。铜的制造和部署成本明显低于光纤。此外,与光纤布线相比,它可以提供性能优势,因为光信号仍然需要在连接两端,在电脉冲之间来回转换。

 

因此,TE 的大部分工作都围绕着寻找扩展普通铜线功能的方法。支持实时数据分析和人工智能应用的广泛采用所需到达的下一个关键里程碑是:使传输速度达到 200 Gbps。

工程师分析数据中心的连接性能。

提高数据传输的效率、速度和可靠性

达到 200 Gbps 阈值

达到 200 Gbps 阈值面临的最大挑战之一是,以这种速度传输数据所需的更高频率会产生更多信号丢失情况。 现有的电缆和连接器可以达到这种频率,同时限制信号损失,但它们往往又大又贵。TE 正在努力以更低的成本可靠提供这些高质量、高成本连接解决方案的精度,使数据中心可以大规模采用它们。

我们已大致了解这个问题。到目前为止,如何在性能、制造和可靠性之间权衡一直是电缆速度每一次提升的关键。不幸的是,随着速度的提高,找到可行的折衷方案变得更加困难。随着我们不断发展高效、经济的 200 Gbps 连接技术,可提供更快速度的连接技术已初见端倪。

一名男士一边欣赏 5G 互连智慧城市,一边在用智能手机打电话。

打造万物互联的未来

加快未来发展可能需要的不仅仅是新的电缆

最终,当我们尝试仅从铜线中获得额外的速度时,我们将面临收益递减的风险。 但是,这并不一定意味着需要完全转向不同的电缆技术。相反,数据中心设备的进步可能会成为实现下一代数据速度的解决方案的一部分。新的架构可以实现更高效的连接,同时为减少延迟提供更多机会。例如,通过允许将导线直接连接到片状元件,可以改变服务器和交换机之间的物理互连。

 

像这样的重大技术飞跃代价高昂,对于任何一个元件制造商来说都很难推动其发展。开发连接网络中多个元件的新方法则是会需要行业内各个参与者之间的密切合作。TE 在有关下一代网络架构的对话中表现得非常活跃。我们还与客户密切合作,以确保我们开发的解决方案适合整个生态系统。

不断变化的架构还提供了提高效率的机会,而不仅仅是加快信号互连。例如,热量是数据中心运营商面临的一个重大问题,因为它会降低性能和可靠性。特别是光缆连接,因产生热量而得不到广泛采用,需要良好的散热设计。

 

为了帮助解决这个问题,TE 的热工程师们积极参与产品开发过程,以帮助确保我们的产品能够经济高效、可靠地传输信号。例如,我们的工程师开发出了创新产品来取代间隙垫,这是在两个表面之间建立热连接的常见解决方案。TE 的散热桥改善了高功率光学模块的传热性能。

 

将这些散热技术集成到我们的产品中可以改善整个数据中心生态系统,从而可以将更多设备集成到交换机中。

有关数据中心技术创新的洞察

跨越地平线

我们移动大量数据的速度也为数据中心架构创造了新的可能性 - 包括向分解计算的转变,这从本质上减少了计算机的物理性质。 分解架构不是将一组计算机与其独立的处理器、内存和存储功能连接起来,而是将计算机的每个部分分解为自己的一部分。然后,一个巨大的共享内存池可以为许多强大的数据处理器提供服务。

 

长期以来,池存储对于云计算和分布式数据中心至关重要。现在,更快的互连和更低的延迟信令为虚拟化计算机的其他部分开辟了可能性,从而可以更高效地利用资源。

在短期内,需要训练日益复杂的人工智能模型以支持医学、零售和自动驾驶领域更复杂的应用,这将促使我们更快地收集、存储和处理更多数据。我们才刚刚开始看到这些技术的影响力有多大。

 

大型 AI 应用将变得更具可扩展性,并通过下一代高速互连技术得到广泛应用。但是,如果认为数字创新速度(或我们需要达到的创新速度)很快就会放缓,那就太愚蠢了。在 TE,即使我们接近 200 Gbps 里程碑,我们也已经在考虑如何到达下一个里程碑并希望走得更远。

关于作者

David Helster, Engineering Fellow, Data and Devices

David Helster

David Helster 是 TE Connectivity 数据和设备业务部门的高级研究员。在他整整 31 年的职业生涯中,他一直在设计高速系统和互连技术。他目前领导系统架构和信号完整性技术团队。在此职位上,他根据未来的客户和行业技术需求来开发 TE 的战略性产品。David 获得了德雷塞尔大学的电子工程学士学位。