Das neueste groß angelegte Sprachmodell von Meta, Code Llama 70B, soll über die größte Parameterskala und die beste Leistung verfügen und in der Branche große Aufmerksamkeit erregen. Allerdings sind hohe Hardwarekosten zu einem großen Hindernis für eine breite Nutzung durch Entwickler geworden. Obwohl das Modell in Tests eine hervorragende Leistung gezeigt hat, haben einige Entwickler seine Leistung in Frage gestellt und befürchtet, dass die für seinen Betrieb erforderliche Hardwarekonfiguration zu anspruchsvoll und schwer zu verbreiten ist.
Meta veröffentlichte Code Llama 70B und behauptete, die beste maximale Leistung zu haben, aber Entwickler berichteten im Allgemeinen, dass es schwierig sei, sich die hohen Hardwarekosten zu leisten. Das Modell schnitt im Test gut ab, einige Entwickler wiesen jedoch darauf hin, dass die Leistung nicht so gut sei wie bei anderen Modellen und machten sich Sorgen, ob die Hardwarekonfiguration ausreichte, um die Betriebsanforderungen des 70B-Modells zu erfüllen.
Die Veröffentlichung von Code Llama 70B verdeutlicht die Herausforderungen bei der Entwicklung großer Sprachmodelle: Wie gelingt ein Gleichgewicht zwischen Leistung und Kosten? In Zukunft werden kostengünstigere Modellschulungs- und Bereitstellungsmethoden der Schlüssel zur echten Förderung der KI-Technologie zum Nutzen eines breiteren Spektrums von Entwicklern und Benutzergruppen sein.