LLMs und andere KI-Modelle haben hohe Rechenanforderungen. Doch wann reicht eine CPU und wann ist eine GPU unumgänglich? Dieser Artikel beleuchtet Performance-Unterschiede, Kostenfaktoren und praxisnahe Einsatzszenarien für GPU- und CPU-basierte KI-Workloads.
Self-Hosting von LLMs vs. API-Nutzung: Welche Strategie ist besser?
Red Hat OpenShift AI: Wie sich KI-Modelle nahtlos in Cloud-Umgebungen integrieren lassen
LLMs auf Kubernetes: Herausforderungen und Lösungen im produktiven Betrieb
Lernen Sie uns und unsere Arbeit kennen und lesen Sie sich unsere neusten Artikel über aktuelle Ereignisse, Entwicklungen und Neuigkeiten durch.
Letzte Woche hatten wir die Gelegenheit, an der KubeCon + CloudNativeCon Europe 2025 in London teilzunehmen. Die Veranstaltung war ein beeindruckender Treffpunkt der internationalen Cloud-Native-Community und bot tiefgehende Einblicke in aktuelle Entwicklungen, innovative Technologien und strategische Trends – viele davon mit hoher Relevanz für unsere zukünftige Arbeit.
Verwaltungen stehen vor der Herausforderung, digitale Prozesse effizient und souverän zu gestalten. openDesk kombiniert Open-Source-Komponenten für einen digitalen Arbeitsplatz und ermöglicht so mehr Unabhängigkeit von proprietären Lösungen.In diesem Vortrag erfährst du, wie openDesk funktioniert, welche Komponenten es umfasst und wie es auf Kubernetes betrieben wird.
Wir freuen uns darauf, von Ihnen zu hören und Ihnen bei Ihren Anliegen zu helfen. Kontaktieren Sie uns noch heute!