DDN AI400X2 Turbo Appliance beschleunigt generative KI und Inferenz für Rechenzentrum und Cloud um den Faktor 10

San Jose, Kalifornien, 28. März 2024 (ots/PRNewswire) -

Das energieeffiziente Storage-System für KI und leistungshungrige Software-Stacks sowie KI-Bibliotheken ermöglicht eine nahtlose End-to-End-Beschleunigung von GPUs, Computern und Netzwerken mit zahlreichen Optionen

DDN®, der führende Anbieter von Lösungen für künstliche Intelligenz (KI) und Multi-Cloud-Datenmanagement, stellte heute DDN AI400X2 Turbo vor, die neueste Ergänzung der leistungsstarken A3I®-Lösungen von DDN. Die AI400X2 Turbo ist 30 Prozent leistungsfähiger als die bisherige branchenführende AI400X2 und zeichnet sich durch höhere Performance und erweiterte Konnektivitätsoptionen aus.

Angesichts der steigenden Anzahl von KI-Workloads in allen Märkten entwickeln GPU-Hersteller immer schnellere Beschleuniger, um diesen massiven Anforderungen gerecht zu werden. Dabei ist es entscheidend, dass alle Infrastrukturkomponenten eines Rechenzentrums die Verarbeitungsleistung der GPUs voll unterstützen können. Die AI400X2 Turbo von DDN bietet einen deutlich höheren ROI für Multi-Node-GPU-Cluster sowie für generative KI, Inferenz, KI-Frameworks und Software-Bibliotheken und erreicht beeindruckende Schreibgeschwindigkeiten von 75 GB/s und Lesegeschwindigkeiten von 120 GB/s pro 2U-Appliance.

„Rechenzentren und Cloud-Anbieter investieren erhebliche Summen in KI-Infrastrukturen. Wenn es darum geht, den ROI zu verbessern, die Effizienz von KI-Frameworks und Software-Bibliotheken zu steigern und die GPUs mit maximaler Leistung zu betreiben, sind Storagesysteme ein wichtiger Faktor", sagte Dr. James Coomer, Senior Vice President of Products bei DDN. „Die AI400X2 Turbo von DDN wurde mit dem Ziel höchster Effizienz, Performance sowie idealer Leistung und Einfachheit für generative KI, Inferenz und Multi-Node-GPU-Cluster entwickelt. Dies stärkt die Stellung von DDN als erste Adresse für die Large-Scale-Anwendung generativer KI und große Sprachmodelle."

Die AI400X2 Turbo ist Teil der A3I Appliances, die heute weltweit in einer Vielzahl von Produktionsumgebungen in der Finanzbranche, den Biowissenschaften, dem Gesundheitswesen und der Entwicklung autonomer Fahrzeuge auf Basis von NVIDIA DGX™-Systemen (https://c212.net/c/link/?t=0&l=de&o=4126943-1&h=3724393130&u=https%3A%2F%2Fwww.nvidia.com%2Fde-de%2Fdata-center%2Fdgx-platform%2F&a=NVIDIA+DGX%E2%84%A2-Systemen) eingesetzt werden. Als Entwickler von Lösungen, die die Leistung von Anwendungen und KI-Frameworks optimieren, ist DDN führend und beschleunigt den Weg zu einer sicheren und energieeffizienten KI-Implementierung durch innovative Storage-Lösungen.

Über DDN DDN ist ein weltweit führender Anbieter von Lösungen für Storage und Datenmanagement at Scale. Ob KI oder High Performance Computing: Wir beschleunigen Workflows und Anwendungen in Rechenzentren, in Private und Public Clouds und am Edge. Mit unserer Technologie erzielen bereits mehr als 11.000 Kunden signifikante Effizienzsteigerungen in ihren GPU- und CPU-Rechenfarmen und sparen dabei erheblich Energie und Platz. Unsere Produkte nutzen hochoptimierte Flash-Technologie und KI-fähige Software und werden von einigen der weltweit größten und anspruchsvollsten Anwender eingesetzt. Dazu gehören die Anwendungsbereiche autonomes Fahren, KI-Chatbots, Gesundheitswesen, Finanzdienstleistungen, Fertigung, Energiewirtschaft, Behörden, der öffentliche Sektor, Forschungseinrichtungen sowie Anwendungen für generative KI und Datenanalyse. Erfahren Sie mehr über unser Angebot auf ddn.com.

pr@ddn.com

DDN@walt.com

Kontakt:

Press Relations at DDN
pr@ddn.comWalt & Company, on behalf of DDN
Sharon Sumrit
DDN@walt.com©2024 Alle Rechte vorbehalten. DDN und A3I sind Marken oder eingetragene Marken im Besitz von DataDirect Networks. Alle anderen Marken sind das Eigentum ihrer jeweiligen Inhaber.
Logo - https://mma.prnewswire.com/media/1191324/4619231/DDN_Logo.jpg
View original content to download multimedia:https://www.prnewswire.com/de/pressemitteilungen/ddn-ai400x2-turbo-appliance-beschleunigt-generative-ki-und-inferenz-fur-rechenzentrum-und-cloud-um-den-faktor-10-302101776.html


Original-Content von: DataDirect Networks (DDN), übermittelt durch news aktuell

Artikel teilen