Meta treibt seine Strategie der künstlichen Intelligenz aktiv voran und plant den Einsatz seines selbst entwickelten KI-Chips Artemis der zweiten Generation, um seine Abhängigkeit von Nvidia-Chips zu verringern und die Kosten für KI-Rechner effektiv zu kontrollieren. Dieser Schritt stellt für Meta einen wichtigen Schritt in Richtung einer autonomen und groß angelegten Anwendung im Bereich der künstlichen Intelligenz dar und deutet auch darauf hin, dass der Wettbewerb auf dem Markt für KI-Chips in Zukunft härter werden wird. Mark Zuckerberg, CEO von Meta, gab bekannt, dass 340.000 Nvidia H100-GPUs gleichzeitig verwendet werden, wobei insgesamt etwa 600.000 GPUs zum Betrieb und Training von KI-Systemen verwendet werden, was die enormen Investitionen und ehrgeizigen Ziele von Meta in die KI-Technologie widerspiegelt. Artemis-Chips werden hauptsächlich zur „Inferenz“ von KI-Modellen verwendet, was Meta mehr Flexibilität und Autonomie verleiht und es im KI-Bereich wettbewerbsfähiger macht.
Der Social-Media-Riese Meta plant, in diesem Jahr einen maßgeschneiderten KI-Chip der zweiten Generation namens Artemis in seinen Rechenzentren einzusetzen. Mark Zuckerberg, CEO von Meta, kündigte Pläne an, 340.000 Nvidia H100-GPUs zu verwenden, also insgesamt etwa 600.000 GPUs, um KI-Systeme zu betreiben und zu trainieren. Der Schritt zielt darauf ab, die Abhängigkeit von Nvidia-Chips zu verringern und die Kosten für KI-Workloads zu kontrollieren. Die neuen Chips werden verwendet, um „Inferenz“ auf KI-Modellen durchzuführen, was für mehr Flexibilität und Autonomie sorgt.Der Schritt von Meta spiegelt nicht nur seine Ambitionen im KI-Bereich wider, sondern deutet auch darauf hin, dass der KI-Chip-Markt in Zukunft über eine vielfältigere Wettbewerbslandschaft verfügen wird. Der erfolgreiche Einsatz von Artemis-Chips wird tiefgreifende Auswirkungen auf die KI-Strategie von Meta und die gesamte KI-Branche haben und verdient fortlaufende Aufmerksamkeit.