Broker-Login:
EQS-News: WEKA stellt WEKApod-Geräte der nächsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren (deutsch)

WEKA stellt WEKApod-Geräte der nächsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren

^
EQS-News: WEKA / Schlagwort(e): Produkteinführung
WEKA stellt WEKApod-Geräte der nächsten Generation vor, die die
Wirtschaftlichkeit von KI-Speichern neu definieren

19.11.2025 / 22:50 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.

---------------------------------------------------------------------------

WEKApod Prime basiert auf AlloyFlash und bietet eine bahnbrechende
Kosteneffizienz mit einem um 65 % besseren Preis-Leistungs-Verhältnis.
WEKApod Nitro bietet eine beispiellose Leistungsdichte mit doppelt so hohen
Geschwindigkeiten für anspruchsvolle KI-Workloads

ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von
SC25: WEKA, das KI-Speicherunternehmen, hat die nächste Generation seiner
WEKApod(TM)-Geräte angekündigt, die den traditionellen Kompromiss zwischen
Leistung und Kosten auf den Kopf stellen sollen. Das komplett überarbeitete
WEKApod-Prime-Gerät erzielt eine um 65 % bessere Preis-Leistungs-Bilanz,
indem es Daten intelligent über gemischte Flash-Konfigurationen verteilt und
so bahnbrechende Wirtschaftlichkeit ohne Kompromisse bietet. WEKApod Nitro
verdoppelt die Leistungsdichte mit aktualisierter Hardware und ermöglicht es
Unternehmen, Innovationen im Bereich KI und High-Performance-Computing (HPC)
zu beschleunigen, die GPU-Auslastung zu maximieren und mehr Kunden zu
bedienen. Durch sein Design mit höherer Dichte eignet es sich auch ideal für
große Objektspeicher-Repositorys und KI-Data-Lakes, die kompromisslose
Leistung erfordern.

WEKA Unveils Next-Gen WEKApod Appliances to Redefine AI Storage Economics

WEKApod-Geräte sind die einfachste und schnellste Möglichkeit, NeuralMesh(TM)
von WEKA zu implementieren und zu skalieren, das weltweit einzige
Speichersystem, das speziell für die Beschleunigung von KI in großem Maßstab
entwickelt wurde. WEKApod bietet die softwaredefinierte Flexibilität von
NeuralMesh in einsatzbereiten, vorab validierten Konfigurationen mit einem
deutlich verbesserten Setup-Dienstprogramm und Plug-and-Play-Funktionalität.
Unternehmen können mit nur acht Servern beginnen und bei wachsenden
Bereitstellungen auf Hunderte skalieren, wodurch komplexe
Integrationsarbeiten entfallen und gleichzeitig auf den kompletten
Funktionsumfang von NeuralMesh zugegriffen werden kann - einschließlich
verteilter Datensicherung, sofortiger Snapshots, Multi-Protokoll-Zugriff,
automatisierter Tiering, Verschlüsselung und Hybrid-Cloud-Funktionen.

Die Krise der Infrastruktureffizienz
Unternehmen, die in KI-Infrastruktur investieren, stehen unter zunehmendem
Druck, den ROI nachzuweisen, da wertvolle GPU-Ressourcen nicht ausgelastet
sind, Trainingszyklen die Zeitpläne verlängern, Inferenzkosten die Margen
auffressen und die Cloud-Rechnungen mit dem Datenwachstum in die Höhe
schnellen. Herkömmliche Speichersysteme zwingen sie zu einer unmöglichen
Wahl: extreme Leistung oder überschaubare Kosten, aber nie beides.
Gleichzeitig bedeuten die Einschränkungen von Rechenzentren - begrenzter
Rack-Platz, Strombudgets und Kühlkapazität -, dass jede Rack-Einheit mehr
Leistung liefern muss, da sonst die Infrastrukturkosten außer Kontrolle
geraten.

Die WEKApod-Familie der nächsten Generation geht diese geschäftlichen
Herausforderungen direkt an. WEKApod Prime beseitigt den Zwang, zwischen
Leistung und Kosten abzuwägen, und bietet eine um 65 % bessere
Preis-Leistungs-Bilanz durch intelligente Datenplatzierung, die die
Platzierung automatisch anhand der Workload-Eigenschaften optimiert - so
wird sichergestellt, dass Schreibvorgänge ihre volle Leistung beibehalten
und gleichzeitig bahnbrechende Wirtschaftlichkeit erzielt wird.

Jetzt brauchen KI-Entwickler und Cloud-Anbieter keinen Kompromiss zwischen
Leistung und Kosten mehr einzugehen

WEKApod Prime: bietet einen einzigartigen Ansatz für die
Mixed-Flash-Technologie, indem es TLC- und eTLC-Flash-Laufwerke intelligent
in Konfigurationen kombiniert, die bis zu 20 Laufwerke in einem 1U-Rack oder
40 Laufwerke in einer 2U-Rack-Konfiguration unterstützen. Im Gegensatz zu
herkömmlichen mehrstufigen Speicherlösungen, die Cache-Hierarchien,
Datenbewegungen zwischen den Ebenen und Einbußen bei der
Schreibgeschwindigkeit mit sich bringen, bietet AlloyFlash von WEKApod eine
konsistente Leistung bei allen Vorgängen - einschließlich voller
Schreibgeschwindigkeit ohne Drosselung - und erzielt dabei bahnbrechende
Wirtschaftlichkeit. Keine Kompromisse, keine Einbußen bei der
Schreibgeschwindigkeit, keine Cache-Hierarchien. WEKApod Prime wird bereits
von führenden Pionieren im Bereich der KI-Cloud wie dem Danish Centre for AI
Innovation (DCAI) eingesetzt.

Das Ergebnis ist eine außergewöhnliche Dichte, die direkt auf die
Ressourcenbeschränkungen von Rechenzentren eingeht: 4,6-mal bessere
Kapazitätsdichte, 5-mal bessere Schreib-IOPS pro Rack-Einheit (im Vergleich
zur vorherigen Generation), 4-mal bessere Leistungsdichte bei 23.000 IOPS
pro kW (oder 1,6 PB pro kW) und 68 % weniger Stromverbrauch pro Terabyte bei
gleichbleibender extremer Leistung, die KI-Workloads erfordern. Für
schreibintensive KI-Workloads wie Training und Checkpointing bedeutet dies,
dass der Speicher ohne Leistungseinbußen Schritt hält, die teure GPUs
während kritischer Vorgänge ungenutzt lassen können.

WEKApod Nitro: speziell für KI-Fabriken mit Hunderten oder Tausenden von
Grafikprozessoren entwickelt wurde, bietet es eine doppelt so hohe Leistung
und ein 60 % besseres Preis-Leistungs-Verhältnis durch verbesserte Hardware,
darunter NVIDIA ConnectX-8 SuperNIC mit einem Durchsatz von 800 Gb/s und 20
TLC-Laufwerken in einem kompakten 1U-Formfaktor. Als schlüsselfertige NVIDIA
DGX SuperPOD und NVIDIA Cloud Partner (NCP)-zertifizierte Geräte ersparen
beide WEKApod-Konfigurationen wochenlange Integrationsarbeiten, sodass
Unternehmen Kundenservices innerhalb von Tagen statt Monaten auf den Markt
bringen können und gleichzeitig sicherstellen, dass die
Speicherinfrastruktur mit den Beschleunigern der nächsten Generation Schritt
hält.

Messbare geschäftliche Auswirkungen von KI-Implementierungen

* Für KI-Cloud-Anbieter und Neoclouds: Bedienen Sie mehr Kunden profitabel
mit Ihrer bestehenden Infrastruktur und halten Sie gleichzeitig
garantierte Leistungs-SLAs ein. Die Verbesserung des
Preis-Leistungs-Verhältnisses um 65 % führt direkt zu höheren Margen für
GPU-as-a-Service-Angebote. Schnellere Bereitstellungszeiten bedeuten
schnellere Umsätze für neue Kunden.

* Für Unternehmen, die KI-Fabriken einrichten: Setzen Sie KI-Initiativen
innerhalb von Tagen statt Monaten um - mit schlüsselfertigen Lösungen,
die komplexe Integrationsarbeiten überflüssig machen und es IT-Teams
ermöglichen, ohne spezielles Fachwissen eine Speicherleistung auf
Unternehmensniveau zu erzielen. Reduzieren Sie den Stromverbrauch durch
verbesserte Dichte und Effizienz um bis zu 68 % und skalieren Sie
gleichzeitig die KI-Fähigkeiten, ohne dass sich die Anforderungen an
Platzbedarf, Stromverbrauch oder Kühlung im Rechenzentrum proportional
erhöhen - so erzielen Sie vom ersten Tag an einen messbaren ROI für Ihre
Infrastruktur.

* Für KI-Entwickler und -Forscher: Beschleunigen Sie die Modellentwicklung
mit GPU-Auslastungsraten von mehr als 90 %. Reduzieren Sie die
Trainingszeit, um Iterationszyklen zu beschleunigen und sich einen
Wettbewerbsvorteil zu verschaffen. Senken Sie die Inferenzkosten, um
neue KI-Anwendungen wirtschaftlich rentabel zu machen. Beginnen Sie mit
nur acht Servern und skalieren Sie bei steigendem Bedarf auf Hunderte,
wobei alle NeuralMesh-Unternehmensfunktionen standardmäßig enthalten
sind.

Anbieter von KI-Infrastrukturen sehen bereits direkte geschäftliche
Auswirkungen dieser Innovationen:

"Platz und Strom sind die neuen Grenzen der Innovation in Rechenzentren. Die
außergewöhnliche Speicherdichte von WEKApod ermöglicht es uns, einen
Datendurchsatz und eine Effizienz auf Hyperscaler-Niveau bei optimiertem
Platzbedarf zu erzielen - und so mehr KI-Leistung pro Kilowatt und
Quadratmeter freizusetzen", sagte Nadia Carlsten, CEO des Danish Centre for
AI Innovation (DCAI). "Diese Effizienz verbessert direkt die
Wirtschaftlichkeit und beschleunigt die Bereitstellung von KI-Innovationen
für unsere Kunden."

"KI-Investitionen müssen einen ROI nachweisen. WEKApod Prime bietet eine um
65 % bessere Preis-Leistungs-Bilanz ohne Einbußen bei der Geschwindigkeit,
während WEKApod Nitro die Leistung verdoppelt, um die GPU-Auslastung zu
maximieren. Das Ergebnis: Schnellere Modellentwicklung, höherer
Inferenzdurchsatz und bessere Renditen für Investitionen in Rechenleistung,
die sich direkt auf die Rentabilität und die Markteinführungszeit
auswirken", so Ajay Singh, Chief Product Officer bei WEKA.

"Netzwerke sind für die KI-Infrastruktur von entscheidender Bedeutung und
verwandeln KI-Rechen- und Speicherkapazitäten in eine Denkplattform, die
Token digitaler Intelligenz in großem Maßstab generiert und bereitstellt",
sagte Kevin Deierling, Senior Vice President Networking bei NVIDIA. "Mit
NVIDIA Spectrum-X Ethernet und NVIDIA ConnectX-8-Netzwerken als Grundlage
für WEKApod unterstützt WEKA Unternehmen dabei, Datenengpässe zu beseitigen
- was für die Optimierung der KI-Leistung von entscheidender Bedeutung ist."

Verfügbarkeit

WEKApod-Geräte der nächsten Generation sind jetzt verfügbar. Organisationen
können mehr erfahren unter weka.io/wekapod oder WEKA auf der SuperComputing
2025, Stand Nr. 2215 besuchen.

Informationen zu WEKA

WEKA verändert die Art und Weise, wie Unternehmen KI-Workflows aufbauen,
betreiben und skalieren - mit NeuralMesh(TM) by WEKA®, seinem intelligenten,
adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen
Dateninfrastrukturen, die mit steigender Arbeitslast langsamer und
anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller,
leistungsfähiger und effizienter. Es passt sich dynamisch an KI-Umgebungen
an und bietet so eine flexible Grundlage für Unternehmens-KI und
agentenbasierte KI-Innovationen. NeuralMesh genießt das Vertrauen von 30 %
der Fortune-50-Unternehmen und unterstützt führende Unternehmen,
KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller
zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr auf
www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X.

WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier
genannte Markennamen können Marken der jeweiligen Eigentümer sein.

WEKA: The Foundation for Enterprise AI

Foto -
https://mma.prnewswire.com/media/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg
Logo - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg

Cision View original content:
https://www.prnewswire.com/de/pressemitteilungen/weka-stellt-wekapod-gerate-der-nachsten-generation-vor-die-die-wirtschaftlichkeit-von-ki-speichern-neu-definieren-302620908.html


---------------------------------------------------------------------------

19.11.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht,
übermittelt durch EQS News - ein Service der EQS Group.
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.

Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate
News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen:
https://eqs-news.com/?origin_id=bcf05a40-c591-11f0-be29-0694d9af22cf&lang=de

---------------------------------------------------------------------------

2232958 19.11.2025 CET/CEST

°