InfiniBand (original) (raw)

About DBpedia

InfiniBand نوع من روابط أو موصلات شبكات اتصالات الكمبيوتر (من فئة switched fabric ) و المستخدمة في الحوسبة عالية الأداء (high-performance computing) و مراكز بيانات المؤسسات (enterprise data centers). ومن ضمن ميزات تقنية InfiniBand إنتاجية عالية، زمن وصل منخفض، خدمة جيدة وقابلية تجاوز الفشل كما أنها مصممة في الأساس لتكون قابلة للتطوير المتواصل. البنية الهندسية ل InfiniBand تمكن من الوصل بين العقد المعالجة (processor nodes) وعقد ادخال/إخراج (I/o nodes) مرتفعة الأداء مثل أجهزة التخزين. يتم تصنيع مكيفات الناقل المضيف (host bus adapters) و محولات الشبكات (network switches) التابعة لتقنية InfiniBand من قبل Mellanox وإنتل.

thumbnail

Property Value
dbo:abstract InfiniBand és una xarxa d'àrea del sistema (System Area Network, SAN) per connectar ordinadors i dispositius d'E/S. Un sistema InfiniBand pot variar des d'un petit servidor format per un processador i uns quants dispositius d'E/S connectats, fins a un supercomputador massivament paral·lel amb milers de processadors i dispositius d'E/S què estan connectat via Internet a altres plataformes de processament i / o sistemes d'E/S. Les dues principals fites que es planteja InfiniBand són: solventar les limitacions que presenten els actuals busos PCI (per exemple, colls d'ampolla, fiabilitat, escalabilitat, etc.), i estandarditzar les emergents tecnologies propietàries en el terreny dels clústers (per exemple, Servernet, Myricom, Giganet, etc.). (ca) InfiniBand نوع من روابط أو موصلات شبكات اتصالات الكمبيوتر (من فئة switched fabric ) و المستخدمة في الحوسبة عالية الأداء (high-performance computing) و مراكز بيانات المؤسسات (enterprise data centers). ومن ضمن ميزات تقنية InfiniBand إنتاجية عالية، زمن وصل منخفض، خدمة جيدة وقابلية تجاوز الفشل كما أنها مصممة في الأساس لتكون قابلة للتطوير المتواصل. البنية الهندسية ل InfiniBand تمكن من الوصل بين العقد المعالجة (processor nodes) وعقد ادخال/إخراج (I/o nodes) مرتفعة الأداء مثل أجهزة التخزين. يتم تصنيع مكيفات الناقل المضيف (host bus adapters) و محولات الشبكات (network switches) التابعة لتقنية InfiniBand من قبل Mellanox وإنتل. (ar) InfiniBand ist eine Spezifikation einer Hardwareschnittstelle zur seriellen Hochgeschwindigkeitsübertragung auf kurzen Distanzen mit geringer Latenz. Sie wird bevorzugt in Rechenzentren verwendet, beispielsweise für die Verbindungen der Server in Computerclustern untereinander und zur Verbindung zwischen Servern und benachbarten Massenspeichersystemen wie Storage Area Networks (SAN). Die Schnittstelle ist das Resultat der Vereinigung zweier konkurrierender Systeme: Future I/O von Compaq, IBM und Hewlett-Packard und Next Generation I/O (ngio), welches von Intel, Microsoft und Sun Microsystems entwickelt wurde. Kurze Zeit, bevor der neue Name gewählt wurde, war InfiniBand bekannt als System I/O. Mit Stand 2016 werden von den Firmen Mellanox und Intel Host-Bus-Adapter für InfiniBand angeboten. Diese Hardwareschnittstellen werden unter anderem von Betriebssystemen wie Solaris, verschiedenen Linux-Distributionen wie Debian oder Red Hat Enterprise Linux, HP-UX, FreeBSD und VMware vSphere unterstützt. (de) InfiniBand (IB) is a computer networking communications standard used in high-performance computing that features very high throughput and very low latency. It is used for data interconnect both among and within computers. InfiniBand is also used as either a direct or switched interconnect between servers and storage systems, as well as an interconnect between storage systems. It is designed to be scalable and uses a switched fabric network topology.By 2014, it was the most commonly used interconnect in the TOP500 list of supercomputers, until about 2016. Mellanox (acquired by Nvidia) manufactures InfiniBand host bus adapters and network switches, which are used by large computer system and database vendors in their product lines. As a computer cluster interconnect, IB competes with Ethernet, Fibre Channel, and Intel Omni-Path. The technology is promoted by the InfiniBand Trade Association. (en) InfiniBand es un bus de comunicaciones serie de alta velocidad, baja latencia y de baja sobrecarga de CPU, diseñado tanto para conexiones internas como externas. Sus especificaciones son desarrolladas y mantenidas por la (IBTA). (es) L'infiniBand est un bus d'ordinateur à haut-débit. Il est destiné aussi bien aux communications internes qu'externes. (fr) InfiniBand è uno standard di comunicazione ad alta velocità, sviluppato principalmente per High Performance Computing e utilizzato nei moderni supercomputer. Può essere utilizzato sia per comunicazioni inter-nodo, in alternativa a Ethernet, o intra-nodo, in particolar modo per le comunicazioni CPU-storage. Al 2018 i maggiori produttori di circuiti integrati InfiniBand sono e Intel, quest'ultima implementando la sua versione proprietaria chiamata Omni-Path. A livello datalink, le comunicazioni avvengono sempre punto a punto e le reti possono essere create attraverso switch. Nel 2017, InfiniBand, seppur utilizzato solo nel 32% dei supercomputer della classifica dei Top 500, rappresentava 314 petaflops cumulati dei Top 500 contro Ethernet che era installato su macchine la cui potenza computazionale cumulata era di 185 petaflops. Il protocollo Infiniband risulta avere un throughput molto più alto e una latenza molto più bassa rispetto a Ethernet: ad esempio, rispetto a 10 gigabit Ethernet migliora il throughput di 3.7 volte e la latenza è ridotta di 5 volte. Tuttavia, la complessità e, di conseguenza, i costi di implementazione sono molto più alti. (it) InfiniBand(インフィニバンド)とは、非常に高いRAS(信頼性・可用性・保守性)を持つ基幹系・HPC系のサーバ/クラスター用高速I/Oバスアーキテクチャ及びインターコネクトのこと。システム間インターコネクト機構としては、RAS機能の他、他機構に比較して、低レイテンシである点も特徴である。 (ja) 인피니밴드(InfiniBand)는 고성능 컴퓨팅과 기업용 데이터 센터에서 사용되는 의 통신 연결 방식이다. 주요 특징으로는 높은 스루풋과 낮은 레이턴시 그리고 높은 안정성과 확장성을 들 수 있다. 컴퓨팅 노드와 스토리지 장비와 같은 고성능 I/O 장비간의 연결에 사용된다. 인피니밴드의 호스트 버스 어댑터와 네트워크 스위치는 와 2012년 1월 의 인피니밴드 사업부를 인수한 인텔에서 생산하고 있다. 인피니밴드는 (VIA)의 확대 개념이다. (ko) InfiniBand is een hogesnelheid seriële computerbus bedoeld voor zowel interne als externe verbindingen. Het is het resultaat van een samensmelting van twee concurrerende ontwerpen, , ontwikkeld door Compaq, IBM en Hewlett-Packard, en (ngio), ontwikkeld door Intel, Microsoft en Sun Microsystems. Aan de zijde van Compaq lag de ontstaansgeschiedenis in Tandems . Deze techniek stond korte tijd bekend als totdat de uiteindelijke naam werd aangenomen. InfiniBand maakt gebruik van een bidirectionele seriële bus om de kosten én de vertraging laag te houden. Desondanks is het erg snel, 10 Gbit/s in beide richtingen. InfiniBand maakt gebruik van een geswitchte topologie zodat verschillende apparaten tegelijk gebruik kunnen maken van het netwerk (in tegenstelling tot een bus topologie). Data wordt verzonden in pakketjes die bij elkaar gevoegd worden om zo een bericht te vormen. Een dergelijk bericht kan een directe geheugen leestoegang of schrijfoperatie zijn van of naar een andere node (Remote DMA of RDMA), een zend- of ontvangstpakket, een transactiegebaseerde operatie of een multicasttransmissie. Net als het in mainframes starten of eindigen alle transmissies met een kanaaladapter. Elke processor beschikt over een Host Channel Adapter (HCA) en elk randapparaat beschikt over een Target Channel Adapter (TCA). Deze adapters kunnen ook informatie uitwisselen voor beveiliging of quality of service (QoS). Het primaire doel van InfiniBand lijkt het koppelen van CPU's en hun hogesnelheidsapparaten tot een cluster voor "back-office" applicaties. In deze rol zal het PCI, Fibre Channel en verschillende andere verbindingssystemen zoals Ethernet vervangen. Uiteindelijk zouden alle CPU's en randapparatuur verbonden zijn in één Infiniband netwerk. Dit heeft een aantal voordelen naast hogere snelheid waaronder het feit dat normaal "verborgen" apparaten zoals PCI-kaarten door ieder apparaat in het netwerk aangesproken kunnen worden. Theoretisch gezien zou dit het maken van computerclusters moeten vergemakkelijken en zelfs goedkoper maken omdat meer apparatuur kan worden gedeeld. (nl) InfiniBand – standard otwartego, szeregowego, wielokanałowego interfejsu I/O o wysokiej przepustowości i krótkim czasie dostępu. (pl) InfiniBand — високошвидкісна комутована послідовна шина, що застосовується як для внутрішніх (внутрішньосистемних), так і для міжсистемних з'єднань. Описи InfiniBand специфіковані, підтримкою і розвитком специфікацій займається InfiniBand Trade Association. (uk) Infiniband (иногда сокр. IB) — высокоскоростная коммутируемая компьютерная сеть, используемая в высокопроизводительных вычислениях, имеющая очень большую пропускную способность и низкую задержку. Также используется для внутренних соединений в некоторых вычислительных комплексах. По состоянию на 2014 год Infiniband являлся наиболее популярной сетью для суперкомпьютеров. Контроллеры Infiniband (host bus adapter) и сетевые коммутаторы производятся компаниями Mellanox и Intel. При создании Infiniband в него закладывалась масштабируемость, сеть использует сетевую топологию на основе коммутаторов (Switched fabric). В качестве коммуникационной сети кластеров Infiniband конкурирует с группой стандартов Ethernet и проприетарными технологиями, например, компаний Cray и IBM. При построении компьютерных сетей IB конкурирует с Gigabit Ethernet, 10 Gigabit Ethernet и 40/100 Gigabit Ethernet. Также IB используется для подключения накопителей информации DAS. Развитием и стандартизацией технологий Infiniband занимается InfiniBand Trade Association. (ru) InfiniBand(直译为“无限带宽”技术,缩写为IB)是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。 截至2014年,它是超级计算机最常用的互连技术。和英特尔制造InfiniBand主机总线适配器和網路交換器,并根据2016年2月的报道,甲骨文公司已经设计了自己的Infiniband交换机单元和服务器适配芯片,用于自己的产品线和第三方。Mellanox IB卡可用于Solaris、RHEL、、Windows、HP-UX、、 AIX。它被设计为可扩展和使用的网络拓扑。 作为互连技术,IB与以太网、光纤通道和其他专有技术(例如克雷公司的SeaStar)竞争。该技术由推动。 (zh)
dbo:headquarter dbr:Beaverton,_Oregon
dbo:purpose Promoting InfiniBand
dbo:thumbnail wiki-commons:Special:FilePath/InfiniBand_Trade_Association_logo.jpg?width=300
dbo:wikiPageExternalLink http://www.infinibandta.org/ https://docs.mellanox.com/display/CABLEMANAGFAQ/Cable+and+Connector+Definitions%7Ctitle=Cable https://www.infinibandta.org/%7Cinfinibandta.org
dbo:wikiPageID 143309 (xsd:integer)
dbo:wikiPageLength 20874 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1124927803 (xsd:integer)
dbo:wikiPageWikiLink dbr:BSD_license dbr:QLogic dbr:Omni-Path dbr:OpenFabrics_Alliance dbr:Beaverton,_Oregon dbr:Dell dbr:Hitachi dbr:List_of_interface_bit_rates dbr:Peripheral_Component_Interconnect dbr:Virginia_Tech dbr:De_facto_standard dbr:Dot-com_bubble dbr:Interconnect_bottleneck dbr:Network_topology dbr:Internet_Protocol_Suite dbr:100_Gigabit_Ethernet dbr:10_Gigabit_Ethernet dbc:Serial_buses dbr:Compaq dbr:SUSE_Linux_Enterprise_Server dbr:Network_switch dbr:Optical_fiber_cable dbr:FreeBSD dbr:Gigabit_Ethernet dbr:Optical_communication dbr:Application_programming_interface dbr:Linux dbr:Communication_channel dbr:Atomic_operation dbr:Pulse-amplitude_modulation dbr:System_X_(supercomputer) dbr:Microsecond dbr:64b/66b_encoding dbr:8b/10b_encoding dbr:Throughput dbr:Latency_(engineering) dbr:Non-return-to-zero dbr:PCI-X dbr:PCI_Express dbr:Central_apparatus_room dbr:Switched_fabric dbr:VMware_ESX dbr:Host_bus_adapter dbr:Quality_of_service dbr:Remote_direct_memory_access dbr:AIX dbr:HP-UX dbr:Hewlett-Packard dbr:Parallel_optical_interface dbc:Computer_buses dbc:Computer_networks dbc:Supercomputing dbr:Bit dbr:Sun_Microsystems dbr:TOP500 dbr:High-performance_computing dbr:CXP_(connector) dbr:Solaris_(operating_system) dbr:Fibre_Channel dbr:IBM dbr:Intel dbr:Microsoft dbr:Microsoft_Windows dbr:Nvidia dbr:Oracle_Corporation dbr:Red_Hat_Enterprise_Linux dbr:International_Supercomputing_Conference dbr:Multicast dbr:SCSI_RDMA_Protocol dbr:QSFP dbr:Ethernet dbr:Fabric_computing dbr:ISCSI_Extensions_for_RDMA dbr:IWARP dbr:Scalability dbr:GPL2 dbr:Gigabit_per_second dbr:Windows_(operating_system) dbr:Cluster_(computing) dbr:Mellanox dbr:File:Infinibandport.jpg
dbp:formation 1999 (xsd:integer)
dbp:headquarters Beaverton, Oregon, U.S. (en)
dbp:name InfiniBand Trade Association (en)
dbp:purpose Promoting InfiniBand (en)
dbp:size 160 (xsd:integer)
dbp:type Industry trade group (en)
dbp:website https://www.infinibandta.org/%7Cinfinibandta.org
dbp:wikiPageUsesTemplate dbt:0 dbt:Abbr dbt:Authority_control dbt:Citation dbt:Citation_needed dbt:Cite_web dbt:Infobox_organization dbt:Reflist dbt:Short_description dbt:Computer-bus
dcterms:subject dbc:Serial_buses dbc:Computer_buses dbc:Computer_networks dbc:Supercomputing
rdf:type owl:Thing schema:Organization dul:Agent dul:SocialPerson dbo:Agent wikidata:Q24229398 wikidata:Q43229 yago:WikicatComputerNetworks yago:WikicatSerialBuses yago:WikicatSupercomputers yago:Artifact100021939 yago:Bus102924116 yago:Computer103082979 yago:ComputerNetwork103085333 yago:Conveyance103100490 yago:Device103183080 yago:DigitalComputer103196324 yago:Instrumentality103575240 yago:Machine103699975 yago:Mainframe103711711 yago:Network103820728 yago:Object100002684 yago:PhysicalEntity100001930 yago:PublicTransport104019101 dbo:Organisation yago:Supercomputer104358117 yago:System104377057 yago:Whole100003553
rdfs:comment InfiniBand نوع من روابط أو موصلات شبكات اتصالات الكمبيوتر (من فئة switched fabric ) و المستخدمة في الحوسبة عالية الأداء (high-performance computing) و مراكز بيانات المؤسسات (enterprise data centers). ومن ضمن ميزات تقنية InfiniBand إنتاجية عالية، زمن وصل منخفض، خدمة جيدة وقابلية تجاوز الفشل كما أنها مصممة في الأساس لتكون قابلة للتطوير المتواصل. البنية الهندسية ل InfiniBand تمكن من الوصل بين العقد المعالجة (processor nodes) وعقد ادخال/إخراج (I/o nodes) مرتفعة الأداء مثل أجهزة التخزين. يتم تصنيع مكيفات الناقل المضيف (host bus adapters) و محولات الشبكات (network switches) التابعة لتقنية InfiniBand من قبل Mellanox وإنتل. (ar) InfiniBand es un bus de comunicaciones serie de alta velocidad, baja latencia y de baja sobrecarga de CPU, diseñado tanto para conexiones internas como externas. Sus especificaciones son desarrolladas y mantenidas por la (IBTA). (es) L'infiniBand est un bus d'ordinateur à haut-débit. Il est destiné aussi bien aux communications internes qu'externes. (fr) InfiniBand(インフィニバンド)とは、非常に高いRAS(信頼性・可用性・保守性)を持つ基幹系・HPC系のサーバ/クラスター用高速I/Oバスアーキテクチャ及びインターコネクトのこと。システム間インターコネクト機構としては、RAS機能の他、他機構に比較して、低レイテンシである点も特徴である。 (ja) 인피니밴드(InfiniBand)는 고성능 컴퓨팅과 기업용 데이터 센터에서 사용되는 의 통신 연결 방식이다. 주요 특징으로는 높은 스루풋과 낮은 레이턴시 그리고 높은 안정성과 확장성을 들 수 있다. 컴퓨팅 노드와 스토리지 장비와 같은 고성능 I/O 장비간의 연결에 사용된다. 인피니밴드의 호스트 버스 어댑터와 네트워크 스위치는 와 2012년 1월 의 인피니밴드 사업부를 인수한 인텔에서 생산하고 있다. 인피니밴드는 (VIA)의 확대 개념이다. (ko) InfiniBand – standard otwartego, szeregowego, wielokanałowego interfejsu I/O o wysokiej przepustowości i krótkim czasie dostępu. (pl) InfiniBand — високошвидкісна комутована послідовна шина, що застосовується як для внутрішніх (внутрішньосистемних), так і для міжсистемних з'єднань. Описи InfiniBand специфіковані, підтримкою і розвитком специфікацій займається InfiniBand Trade Association. (uk) InfiniBand(直译为“无限带宽”技术,缩写为IB)是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。 截至2014年,它是超级计算机最常用的互连技术。和英特尔制造InfiniBand主机总线适配器和網路交換器,并根据2016年2月的报道,甲骨文公司已经设计了自己的Infiniband交换机单元和服务器适配芯片,用于自己的产品线和第三方。Mellanox IB卡可用于Solaris、RHEL、、Windows、HP-UX、、 AIX。它被设计为可扩展和使用的网络拓扑。 作为互连技术,IB与以太网、光纤通道和其他专有技术(例如克雷公司的SeaStar)竞争。该技术由推动。 (zh) InfiniBand és una xarxa d'àrea del sistema (System Area Network, SAN) per connectar ordinadors i dispositius d'E/S. Un sistema InfiniBand pot variar des d'un petit servidor format per un processador i uns quants dispositius d'E/S connectats, fins a un supercomputador massivament paral·lel amb milers de processadors i dispositius d'E/S què estan connectat via Internet a altres plataformes de processament i / o sistemes d'E/S. (ca) InfiniBand ist eine Spezifikation einer Hardwareschnittstelle zur seriellen Hochgeschwindigkeitsübertragung auf kurzen Distanzen mit geringer Latenz. Sie wird bevorzugt in Rechenzentren verwendet, beispielsweise für die Verbindungen der Server in Computerclustern untereinander und zur Verbindung zwischen Servern und benachbarten Massenspeichersystemen wie Storage Area Networks (SAN). (de) InfiniBand (IB) is a computer networking communications standard used in high-performance computing that features very high throughput and very low latency. It is used for data interconnect both among and within computers. InfiniBand is also used as either a direct or switched interconnect between servers and storage systems, as well as an interconnect between storage systems. It is designed to be scalable and uses a switched fabric network topology.By 2014, it was the most commonly used interconnect in the TOP500 list of supercomputers, until about 2016. (en) InfiniBand è uno standard di comunicazione ad alta velocità, sviluppato principalmente per High Performance Computing e utilizzato nei moderni supercomputer. Può essere utilizzato sia per comunicazioni inter-nodo, in alternativa a Ethernet, o intra-nodo, in particolar modo per le comunicazioni CPU-storage. Al 2018 i maggiori produttori di circuiti integrati InfiniBand sono e Intel, quest'ultima implementando la sua versione proprietaria chiamata Omni-Path. A livello datalink, le comunicazioni avvengono sempre punto a punto e le reti possono essere create attraverso switch. (it) InfiniBand is een hogesnelheid seriële computerbus bedoeld voor zowel interne als externe verbindingen. Het is het resultaat van een samensmelting van twee concurrerende ontwerpen, , ontwikkeld door Compaq, IBM en Hewlett-Packard, en (ngio), ontwikkeld door Intel, Microsoft en Sun Microsystems. Aan de zijde van Compaq lag de ontstaansgeschiedenis in Tandems . Deze techniek stond korte tijd bekend als totdat de uiteindelijke naam werd aangenomen. (nl) Infiniband (иногда сокр. IB) — высокоскоростная коммутируемая компьютерная сеть, используемая в высокопроизводительных вычислениях, имеющая очень большую пропускную способность и низкую задержку. Также используется для внутренних соединений в некоторых вычислительных комплексах. По состоянию на 2014 год Infiniband являлся наиболее популярной сетью для суперкомпьютеров. Контроллеры Infiniband (host bus adapter) и сетевые коммутаторы производятся компаниями Mellanox и Intel. При создании Infiniband в него закладывалась масштабируемость, сеть использует сетевую топологию на основе коммутаторов (Switched fabric). (ru)
rdfs:label إنفيني باند (ar) InfiniBand (ca) InfiniBand (de) InfiniBand (es) Bus InfiniBand (fr) InfiniBand (it) InfiniBand (en) 인피니밴드 (ko) InfiniBand (ja) InfiniBand (nl) InfiniBand (pl) InfiniBand (ru) InfiniBand (zh) InfiniBand (uk)
owl:sameAs freebase:InfiniBand yago-res:InfiniBand wikidata:InfiniBand dbpedia-ar:InfiniBand dbpedia-ca:InfiniBand dbpedia-de:InfiniBand dbpedia-es:InfiniBand dbpedia-et:InfiniBand dbpedia-fa:InfiniBand dbpedia-fr:InfiniBand dbpedia-he:InfiniBand dbpedia-it:InfiniBand dbpedia-ja:InfiniBand dbpedia-ko:InfiniBand dbpedia-nl:InfiniBand dbpedia-no:InfiniBand dbpedia-pl:InfiniBand dbpedia-ru:InfiniBand dbpedia-sq:InfiniBand dbpedia-uk:InfiniBand dbpedia-zh:InfiniBand https://global.dbpedia.org/id/55HfB
prov:wasDerivedFrom wikipedia-en:InfiniBand?oldid=1124927803&ns=0
foaf:depiction wiki-commons:Special:FilePath/InfiniBand_Trade_Association_logo.jpg wiki-commons:Special:FilePath/Infinibandport.jpg
foaf:homepage https://www.infinibandta.org/%7Cinfinibandta.org
foaf:isPrimaryTopicOf wikipedia-en:InfiniBand
foaf:name InfiniBand Trade Association (en)
is dbo:product of dbr:Mellanox_Technologies
is dbo:wikiPageDisambiguates of dbr:IB dbr:IBA
is dbo:wikiPageRedirects of dbr:InfiniBand_Trade_Association dbr:Ethernet_over_InfiniBand dbr:Ibta dbr:IPoIB dbr:Infiniband dbr:EoIB dbr:Host_Channel_Adapter dbr:IBTA dbr:Future_I/O dbr:NGIO dbr:Verbs_API dbr:Infiband dbr:Infinaband dbr:InfiniBand_(IB) dbr:InfiniBand_Architecture dbr:Infiniband_HDR dbr:Voltaire_InfiniBand
is dbo:wikiPageWikiLink of dbr:QLogic dbr:Scalable_Coherent_Interface dbr:FDR_(disambiguation) dbr:National_Center_for_Computational_Sciences dbr:Memory_virtualization dbr:Omni-Path dbr:OpenFabrics_Alliance dbr:Tera_100 dbr:Dell_EMC_XtremIO dbr:Dell_Networking dbr:Arctur-1 dbr:List_of_interface_bit_rates dbr:Roadrunner_(supercomputer) dbr:Cut-through_switching dbr:DEGIMA dbr:Double_data_rate dbr:InfiniBand_Trade_Association dbr:ScREC dbr:100_Gigabit_Ethernet dbr:10_Gigabit_Ethernet dbr:Compute_Express_Link dbr:Corosync_Cluster_Engine dbr:Mellanox_Technologies dbr:SATA dbr:SCST dbr:Gather/scatter_(vector_addressing) dbr:Network_switch dbr:Optical_transport_network dbr:Orders_of_magnitude_(bit_rate) dbr:QPACE2 dbr:Quadrics_(company) dbr:Clustered_file_system dbr:Clustrix dbr:Enterprise_Storage_OS dbr:MySQL_Cluster dbr:NASA_Advanced_Supercomputing_Division dbr:NVMe dbr:Sun_Open_Storage dbr:Optical_module dbr:Oracle_Exadata dbr:Oracle_Exalogic dbr:Linux_kernel dbr:Lustre_(file_system) dbr:MAC_address dbr:MVAPICH dbr:Single-root_input/output_virtualization dbr:Singularity_(software) dbr:Columbia_(supercomputer) dbr:Common_Electrical_I/O dbr:Dell_M1000e dbr:Host_adapter dbr:Leonardo_(supercomputer) dbr:NEC_SX-Aurora_TSUBASA dbr:Parallel_computing dbr:Steele_(supercomputer) dbr:Summit_(supercomputer) dbr:Supercomputer dbr:System_X_(supercomputer) dbr:Transparent_Inter-process_Communication dbr:64b/66b_encoding dbr:8b/10b_encoding dbr:Active_cable dbr:Tuxedo_(software) dbr:Data-intensive_computing dbr:Data-rate_units dbr:Data_center_bridging dbr:Data_signaling_rate dbr:Disk_array_controller dbr:Distributed_concurrency_control dbr:Diversified_Technology dbr:Futurebus dbr:G.709 dbr:GPU_cluster dbr:HIPPI dbr:Ethernet_over_InfiniBand dbr:Supercomputing_in_Pakistan dbr:DaVinci_Resolve dbr:Da_Vinci_Systems dbr:EXtremeDB dbr:Earth_Simulator dbr:Altix dbr:Nimbus_Data dbr:PCI_Express dbr:Enhanced_Data_Rate dbr:List_of_PowerEdge_servers dbr:Nvidia_DGX dbr:Switched_fabric dbr:QDR dbr:RDMA_over_Converged_Ethernet dbr:Remote_direct_memory_access dbr:Guacolda-Leftrarú dbr:Jaguar_(supercomputer) dbr:Tandem_Computers dbr:Texas_Memory_Systems dbr:MareNostrum dbr:AMD_Horus dbr:ATA_over_Ethernet dbr:Advanced_Telecommunications_Computing_Architecture dbr:LIO_(SCSI_target) dbr:TOP500 dbr:Holland_Computing_Center dbr:Tianhe-1 dbr:Tsubame_(supercomputer) dbr:XENPAK dbr:Ibta dbr:Tamares_Group dbr:Bus_(computing) dbr:Pleiades_(supercomputer) dbr:Sockets_Direct_Protocol dbr:IBM_BladeCenter dbr:IBM_Blue_Gene dbr:IBM_FlashSystem dbr:IBM_Intelligent_Cluster dbr:IBM_System_z10 dbr:IBM_XIV_Storage_System dbr:IPoIB dbr:IPtronics dbr:Infiniband dbr:Intel_Cluster_Ready dbr:MetaSAN dbr:Brutus_cluster dbr:NetApp dbr:NetApp_FAS dbr:ONTAP dbr:OneFS_distributed_file_system dbr:Oracle_Linux dbr:Oracle_Zero_Data_Loss_Recovery_Appliance dbr:OrionVM dbr:Raidix dbr:Christofari dbr:IB dbr:IBA dbr:Massively_parallel dbr:Multicast dbr:Serial_Attached_SCSI dbr:Storage_area_network dbr:SciNet_Consortium dbr:Serial_communication dbr:Sierra_(supercomputer) dbr:Virtual_Interface_Architecture dbr:User_Direct_Access_Programming_Library dbr:VLAN dbr:Ethernet dbr:Ethernet_physical_layer dbr:Fabric_computing dbr:Gyoukou dbr:IEEE_1355 dbr:ILLIAC dbr:ISCSI_Extensions_for_RDMA dbr:IWARP dbr:Optical_link dbr:Exascale_computing dbr:Firefly_(supercomputer) dbr:Myrinet dbr:NUMAlink dbr:NVLink dbr:StorNext_File_System dbr:SCSI_initiator_and_target dbr:Small_Form-factor_Pluggable dbr:VXS dbr:SCSI dbr:EoIB dbr:Host_Channel_Adapter dbr:IBTA dbr:Future_I/O dbr:NGIO dbr:Verbs_API dbr:Infiband dbr:Infinaband dbr:InfiniBand_(IB) dbr:InfiniBand_Architecture dbr:Infiniband_HDR dbr:Voltaire_InfiniBand
is foaf:primaryTopic of wikipedia-en:InfiniBand