InfiniBand(直译为“无限带宽”技术,缩写为IB)是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。
截至2014年,它是超级计算机最常用的互连技术。Mellanox(英语:Mellanox)和英特尔制造InfiniBand主机总线适配器和网络交换器,并根据2016年2月的报道,甲骨文公司已经设计了自己的Infiniband交换机单元和服务器适配芯片,用于自己的产品线和第三方。Mellanox IB卡可用于Solaris、RHEL、SLES(英语:SUSE_Linux_Enterprise_Server)、Windows、HP-UX、VMware ESX(英语:VMware ESX)、 AIX。它被设计为可扩展和使用交换结构(英语:Switched fabric)的网络拓扑。
作为互连技术,IB与以太网、光纤通道和其他专有技术(例如克雷公司的SeaStar)竞争。该技术由InfiniBand贸易联盟推动。
链路可以聚合:大多数系统使用一个4X聚合。12X链路通常用于计算机集群和超级计算机互连,以及用于内部网络交换器连接。
InfiniBand也提供远程直接内存访问(RDMA)能力以降低CPU负载。
InfiniBand使用一个交换结构(英语:switched fabric)拓扑,不同于早期的共享介质以太网。所有传输开始或结束于通道适配器。每个处理器包含一个主机通道适配器(HCA),每个外设具有一个目标通道适配器(TCA)。这些适配器也可以交换安全性或QoS信息。
InfiniBand以最高4 KB的数据包发送消息数据。一条消息可以为:
除了板式连接,它还支持有源和无源铜缆(最多30米)和光缆(最多10公里)。使用QSFP(英语:QSFP)连接器。
Inifiniband Association也指定了CXP(英语:CXP (connector))铜连接器系统,用于通过铜缆或有源光缆达到高达120 Gbit/s的能力。
InfiniBand没有标准的应用程序接口。标准只列出一组的例如 ibv_open_device
或是 ibv_post_send
,这些都是必须存在的子程序或方法的抽象表示方式。这些子程序的语法由供应商自行定义。事实标准的软件堆栈标准是由 OpenFabrics Alliance(英语:OpenFabrics Alliance) 所开发的。它以双许可证方式发布,GNU通用公共许可证或BSD许可证用于 GNU/Linux 以及 FreeBSD,且 WinOF 在 Windows 下可以选择 BSD许可证。它已被大多数 InfiniBand 供应商采用,用于 GNU/Linux、FreeBSD 以及 Windows。
InfiniBand源于1999年两个竞争设计的合并:未来I/O与下一代I/O。这促成了InfiniBand贸易联盟(InfiniBand Trade Association,缩写IBTA),其中包括康柏、戴尔、惠普、IBM、英特尔、微软及昇阳。当时有人认为一些更强大的电脑正在接近PCI总线的互连瓶颈(英语:interconnect bottleneck),尽管有像PCI-X的升级。InfiniBand架构规范的1.0版本发布于2000年。最初,IBTA的IB愿景是取代PCI的I/O,以太网的机房、计算机集群的互连以及光纤通道。IBTA也设想在IB结构(英语:Fabric computing)上分担服务器硬件。随着互联网泡沫的爆发,业界对投资这样一个意义深远的技术跳跃表现为犹豫不决。