Red Hat hat Version 1.3 von RHEL AI veröffentlicht, die die Fähigkeiten der Linux-Plattform für künstliche Intelligenz der Enterprise-Klasse erheblich erweitert. Der Kern dieses Updates ist die Unterstützung für IBM Granite Large Language Model (LLM) und die Vorschauunterstützung für Intel Gaudi3 Accelerator, was die Fähigkeit von Unternehmen, KI bereitzustellen und anzuwenden, erheblich verbessern wird. Die neue Version soll die Bereitstellung und Integration von KI-Modellen vereinfachen, Kosten senken und die Möglichkeit einer flexiblen Bereitstellung in Hybrid-Cloud-Umgebungen bieten, wodurch mehr Möglichkeiten für Servicepartner und Systemintegratoren entstehen.
Red Hat hat kürzlich die neueste Version 1.3 seiner Linux-Plattform für künstliche Intelligenz RHEL AI auf Unternehmensebene veröffentlicht, die Unterstützung für das IBM Granite Large Language Model (LLM) hinzufügt und eine Vorschau auf die Unterstützung des Intel Gaudi3-Beschleunigers gibt. Dieses Update bietet den Servicepartnern und Systemintegratoren von Red Hat zusätzliche Möglichkeiten, Unternehmen bei der effektiveren Erforschung und Integration von Anwendungen der künstlichen Intelligenz zu unterstützen.
Joe Fernandez, Vizepräsident und General Manager der KI-Geschäftseinheit von Red Hat, sagte, dass Servicepartner und Systemintegratoren eine wichtige Rolle dabei spielen, das Unternehmen bei der Umsetzung verschiedener Anwendungsfälle zu unterstützen. Er wies darauf hin, dass die Ausgereiftheit der generativen KI es diesen Partnern ermöglicht, ihren Kunden kostengünstigere Lösungen anzubieten. Ziel von Red Hat ist es, die Kosten durch den Einsatz kleinerer Modelle zu senken, die Komplexität der Integration von Modellen in Kundendaten und Anwendungsfälle zu vereinfachen und Flexibilität für die Bereitstellung dieser Modelle in Hybridumgebungen zu bieten.
RHEL AI Version 1.3 ist für Unternehmensanwendungen konzipiert, um generative Modelle für künstliche Intelligenz zu entwickeln, zu testen und auszuführen. Das Update umfasst Unterstützung für das Open-Source-lizenzierte Granite-Großsprachenmodell von IBM und nutzt gleichzeitig Open-Source-Technologie für die Datenvorbereitung. Benutzer können diese Komponenten nutzen, um gepackte, bootfähige RHEL-Images für die Bereitstellung auf einzelnen Servern in einer Hybrid-Cloud über das InstructLab Model Alignment Project zu erstellen, das gemeinsam mit IBM entwickelt wurde.
Die neue Version unterstützt den englischsprachigen Anwendungsfall Granite3.08b und bietet eine Vorschau für Entwickler. Nachfolgende Versionen werden diese Funktionen vollständig unterstützen. Darüber hinaus unterstützt RHEL AI auch das Open-Source-Projekt Docling von IBM Research, das gängige Dokumentformate in Markdown, JSON und andere Formate für Anwendungen und Schulungen generativer künstlicher Intelligenz konvertieren kann. Die neue Version verfügt über kontextbezogene Chunking-Funktionen, die die strukturellen und semantischen Elemente eines Dokuments berücksichtigen und so die Qualität generativer KI-Antworten verbessern sollen.
Diese Version bietet außerdem Technologievorschau-Unterstützung für den Intel Gaudi3-Beschleuniger, sodass Benutzer mehrere Anforderungen parallel in Echtzeit verarbeiten und LLM-Parameter während der Verarbeitung dynamisch anpassen können. Zukünftige RHEL-KI-Versionen werden weitere Dokumentformate von Docling unterstützen, erweiterte Pipelines zur Abrufgenerierung integrieren und InstructLab-Funktionen zur Wissensoptimierung integrieren.
Alles in allem stellt die Veröffentlichung von RHEL AI 1.3 einen wichtigen Schritt für Red Hat im Bereich der KI auf Unternehmensebene dar. Die Unterstützung großer Sprachmodelle und Hardwarebeschleunigung wird Unternehmensbenutzern leistungsfähigere KI-Anwendungsfunktionen und eine flexiblere Bereitstellung ermöglichen. wählen. Die Hinzufügung weiterer Funktionen in zukünftigen Versionen wird seine Wettbewerbsposition auf dem Markt weiter festigen.