F5 verbessert Leistung, Mandantenfähigkeit und Sicherheit für KI mit NVIDIA

– Sesterce-Validierung für gemeinsame Innovation von F5 und NVIDIA
– Unterstützt Kunden bei KI-basierter Bereitstellung von Anwendungen

München, 16. Juni 2025 – F5 hat auf der NVIDIA GTC Paris 2025 neue Funktionen für F5 BIG-IP Next für Kubernetes vorgestellt, die mit NVIDIA BlueField-3 DPUs und dem NVIDIA DOCA Software-Framework beschleunigt werden. Der Kunde Sesterce hat sie bereits validiert. Sesterce ist ein führender europäischer Anbieter, der sich auf Infrastrukturen der nächsten Generation und souveräne KI spezialisiert hat, die Anforderungen von beschleunigtem Computing und künstlicher Intelligenz erfüllen.

BIG-IP Next für Kubernetes ist eine Erweiterung der F5 Application Delivery and Security Platform. Die Lösung bietet hochleistungsfähiges Traffic-Management und Sicherheit für große KI-Infrastrukturen, die eine hohe Effizienz, Kontrolle und Leistung für KI-Anwendungen ermöglichen. Diese Vorteile wurden bereits mit der allgemeinen Verfügbarkeit Anfang des Jahres vorgestellt. Zudem hat Sesterce nun die Validierung der Lösung von F5 und NVIDIA in einer Reihe von wichtigen Bereichen erfolgreich abgeschlossen, unter anderem:

– Verbesserte Leistung, Mehrmandantenfähigkeit und Sicherheit, um Cloud-Anforderungen zu erfüllen, mit einer anfänglichen Verbesserung der GPU-Auslastung um 20 Prozent.
– Integration mit NVIDIA Dynamo und KV Cache Manager zur Reduzierung der Latenzzeit für Inferenzsysteme großer Sprachmodelle (LLM) sowie für die Optimierung von GPUs und Speicherressourcen.
– Intelligentes LLM-Routing auf BlueField DPUs, das effektiv mit NVIDIA NIM-Microservices für Workloads läuft, die mehrere Modelle erfordern, und Kunden das optimale verfügbare Modell bietet.
– Skalierung und Sicherung des Model Context Protocol (MCP), einschließlich Reverse-Proxy-Funktionen und Schutzmechanismen für skalierbare und sichere LLMs, damit Kunden die Leistung von MCP-Servern schnell und sicher nutzen können.
– Leistungsstarke Datenprogrammierbarkeit mit robusten F5 iRules-Funktionen ermöglicht eine schnelle Anpassung zur Unterstützung von KI-Anwendungen und Bewätigung sich verändernder Sicherheitsanforderungen.

„Die Integration von F5- und NVIDIA-Lösungen war schon interessant, bevor wir überhaupt Tests durchgeführt haben“, sagt Youssef El Manssouri, CEO und Mitbegründer von Sesterce. „Unsere Ergebnisse belegen die Vorteile des dynamischen Lastausgleichs von F5 mit hochvolumigem Kubernetes-Ingress und Egress in KI-Umgebungen. Durch diesen Ansatz können wir den Datenverkehr effizienter verteilen und die Nutzung unserer GPUs optimieren, um unseren Kunden einen zusätzlichen und einzigartigen Wert zu bieten. Wir freuen uns über die Unterstützung von F5 für eine wachsende Zahl von NVIDIA-Anwendungsfällen, einschließlich erweiterter Mandantenfähigkeit, sowie auf weitere Innovationen der Unternehmen zur Unterstützung der nächsten Generation von KI-Infrastrukturen.“

Zu den Highlights der neuen Lösungsfunktionen gehören:

1) LLM-Routing und dynamischer Lastausgleich mit BIG-IP Next für Kubernetes

Das fortschrittliche Datenverkehrsmanagement von F5 stellt sicher, dass Abfragen an das optimal geeignete LLM gesendet werden: Einfache KI-bezogene Aufgaben werden an kostengünstigere, schlankere LLMs weitergeleitet, während fortschrittliche Modelle für komplexe Abfragen reserviert sind. So lässt sich die Qualität steigern und die Kundenerfahrung deutlich verbessern. Dies reduziert die Latenz und die Zeit bis zum ersten Token.

„Unternehmen setzen zunehmend mehrere LLMs ein, um fortschrittliche KI-Lösungen zu unterstützen. Aber das Routing und die Klassifizierung des LLM-Verkehrs kann sehr rechenintensiv sein. Das beeinträchtigt die Leistung sowie das Benutzererlebnis“, erklärt Kunal Anand, Chief Innovation Officer bei F5. „Durch die Programmierung der Routing-Logik direkt auf den NVIDIA BlueField-3 DPUs ist F5 BIG-IP Next für Kubernetes der effizienteste Ansatz für die Bereitstellung und Sicherung von LLM-Datenverkehr. Doch das ist erst der Anfang. Wir freuen uns auf eine engere Zusammenarbeit mit NVIDIA.“

2) Optimierte GPUs für verteilte KI-Inferenz durch Integration von NVIDIA Dynamo und KV Cache

Mit NVIDIA Dynamo wurde ein zusätzliches Framework für die Bereitstellung generativer KI- und Schlussfolgerungsmodelle in großen verteilten Umgebungen eingeführt. Es reduziert die Komplexität der KI-Inferenz in verteilten Umgebungen durch die Orchestrierung von Aufgaben wie Scheduling, Routing und Speichermanagement. Dies gewährleistet einen nahtlosen Betrieb unter dynamischen Arbeitslasten. Die Verlagerung bestimmter Prozesse von CPUs auf BlueField DPUs ist einer der wichtigsten Vorteile der kombinierten Lösung von F5 und NVIDIA.

Integriert mit F5 kann die Dynamo KV Cache Manager-Funktion Anfragen intelligent auf Basis der Kapazität weiterleiten und mit Key-Value (KV) Caching generative KI-Anwendungsfälle beschleunigen. Dabei werden Prozesse auf der Grundlage von Informationen aus früheren Abläufen beschleunigt, anstatt ressourcenintensive Neuberechnungen durchzuführen. Unternehmen, die KV-Cache-Daten speichern und wiederverwenden, sparen so einen signifikanten Kostenanteil im Vergleich zur Verwendung von GPU-Speichern.

„BIG-IP Next für Kubernetes – beschleunigt durch NVIDIA BlueField-3 DPUs – bietet Unternehmen und Service-Providern einen zentralen Kontrollpunkt für das effiziente Routing des Datenverkehrs zu KI-Fabriken, um die GPU-Effizienz zu optimieren und den KI-Verkehr für Dateningestion, Modelltraining, Inferenz, RAG und agentenbasierte KI zu beschleunigen“, so Ash Bhalgat, Senior Director of AI Networking and Security Solutions, Ecosystem and Marketing bei NVIDIA. „Darüber hinaus bieten die Unterstützung von F5 für Multimandantenfähigkeit und die verbesserte Programmierbarkeit mit iRules eine Plattform, welche für die kontinuierliche Integration und Funktionserweiterung wie die Unterstützung von NVIDIA Dynamo Distributed KV Cache Manager geeignet ist.“

3) Verbesserter Schutz für MCP-Server mit F5 und NVIDIA

Das Model Context Protocol (MCP) ist ein von Anthropic entwickeltes offenes Protokoll, das standardisiert, wie Anwendungen für LLMs Kontext bereitstellen. Durch den Einsatz der kombinierten Lösung von F5 und NVIDIA vor MCP-Servern kann die F5-Technologie als Reverse Proxy dienen und die Sicherheitsfunktionen für MCP-Lösungen und die von ihnen unterstützten LLMs verbessern. Darüber hinaus fördert die vollständige Datenprogrammierbarkeit durch F5 iRules die schnelle Anpassung an sich schnell verändernde KI-Protokollanforderungen und bietet zusätzlichen Schutz vor aufkommenden Cybersicherheitsrisiken für höhere Ausfallsicherheit.

Die neuen Funktionen von F5 BIG-IP Next für Kubernetes intensivieren die Partnerschaft von F5 und NVIDIA. Passend dazu hat F5 kürzlich die neue Version F5 BIG-IP Next Cloud-Native Network Functions (CNF) 2.0 zur Optimierung von Apps und APIs in Kubernetes-Umgebungen vorgestellt. Zudem wird die strategische Zusammenarbeit mit Red Hat signifikant ausgebaut.

Weitere Informationen zur Technologie und den Vorteilen ihrer Bereitstellung finden Sie unter www.f5.com sowie in einem begleitenden Blog von F5.

Über Sesterce
Sesterce wurde 2018 gegründet und ist ein führender europäischer Betreiber, der sich auf High-Performance Computing und Infrastrukturen für künstliche Intelligenz spezialisiert hat. Mit vollständiger Kontrolle über die Wertschöpfungskette bietet das Unternehmen flexible, souveräne und nachhaltige Lösungen, die auf die Bedürfnisse von Startups, Großunternehmen und akademischen Einrichtungen zugeschnitten sind. Sesterce will europäischer Marktführer für KI-Infrastrukturen werden und Innovatoren ermöglichen, unter Wahrung ethischer und ökologischer Standards zu skalieren. In diesem Sinne stellt Sesterce auch eine „KI-native“ Serviceschicht auf seiner Infrastruktur bereit: Sie bietet eine High-Level-Datenvorbereitung, die heterogene Echtzeitströme aufnimmt und umwandelt, unterstützt speziell Organisationen bei Entwicklung und Einsatz von Very Large Language Models (VLLMs) und liefert modulare Business-Intelligence-Lösungen, die sowohl für KI-native Startups als auch für etablierte Unternehmen konzipiert sind. Zudem gewährleistet Sesterce mit privaten KI- und Inferenzumgebungen, die vollständig mit den europäischen Souveränitäts- und Vertraulichkeitsstandards übereinstimmen, durchgängigen Datenschutz und Kontrolle.

Über F5
F5, Inc. (NASDAQ: FFIV) ist das weltweit führende Unternehmen, das jede Anwendung bereitstellt und absichert. Gestützt auf drei Jahrzehnte Erfahrung hat F5 die branchenweit führende Plattform – die F5 Application Delivery and Security Platform (ADSP) – entwickelt, um jede App und jede API überall bereitzustellen und zu sichern: vor Ort, in der Cloud, am Netzwerkrand und in hybriden Multi-Cloud-Umgebungen. F5 hat sich der Innovation und der Zusammenarbeit mit den größten und fortschrittlichsten Unternehmen der Welt verschrieben, um schnelle, verfügbare und sichere digitale Erlebnisse zu ermöglichen. Gemeinsam helfen wir uns gegenseitig, erfolgreich zu sein und eine bessere digitale Welt zum Leben zu erwecken. Weitere Informationen finden Sie unter f5.com.

Firmenkontakt
F5
Claudia Kraus
Lehrer-Wirth-Straße
81829 München
089943830
f27b2ecea8e2109a09c3c4eda18870fa4c05c919
http://www.f5.com

Pressekontakt
Fink & Fuchs AG
Rudi Siegl
Berliner Straße 164
65205 Wiesbaden
0895897870
f27b2ecea8e2109a09c3c4eda18870fa4c05c919
http://www.finkfuchs.de

Werbung
connektar.de