La cooperación entre OpenAI y Broadcom ha atraído una atención generalizada, y ambas partes planean desarrollar chips de inferencia personalizados para optimizar la eficiencia de los servicios de IA y reducir los costos de computación en la nube. Este movimiento no solo demuestra el diseño estratégico de OpenAI en el campo de hardware, sino que también indica una nueva dirección para el desarrollo futuro de la tecnología de IA.
Recientemente, se ha informado que Openai está trabajando con Broadcom para desarrollar un chip de inferencia personalizado. Según Reuters, las discusiones entre las dos compañías son muy confidenciales, y Taiwan Semiconductor Manufacturing Corporation (TSMC) puede servir como fundición para el proyecto. Esta noticia ha provocado especulaciones generalizadas del mundo exterior sobre la dirección de desarrollo futura de OpenAI.
Notas de fuente de imagen: La imagen es generada por AI y el proveedor de servicios autorizado de imagen MidJourney
Entonces, ¿por qué OpenAi necesita su propio chip de inferencia? Muchas compañías han descubierto que elegir construir sus propios centros de datos es mucho más económico que alquilar servicios en la nube.
Además, desarrollar chips dedicados que se adapten a sus propios servicios también puede ser un objetivo estratégico de OpenAI. Como todos sabemos, las aplicaciones de IA consumen mucha energía, por lo que al optimizar la sinergia entre el hardware y el software, los servicios de OpenAI se volverán más eficientes.
Operai también muestra a los inversores la idea de construir grandes centros de datos que están específicamente diseñados para ejecutar servicios de IA que también pueden costar menos construir u operar si están equipados con chips personalizados. Además, la consideración de las cadenas de suministro descentralizadas no se puede ignorar. Debido a la limitada capacidad de producción global de semiconductores, existe el riesgo de depender de proveedores externos, y desarrollar chips propios puede reducir la dependencia de los productos de terceros.
Si bien no podemos imaginar que Operai estaría dispuesto a ingresar a la industria de la molestia de las ventas de hardware, ya que requiere una gran cantidad de inversión real y aumenta el número de empleados, OpenAi podría implementarse al borde de la red cuando las tareas de inferencia generalmente necesitan Estar lo más cerca de los usuarios como posibles dispositivos relacionados, como muchas redes de distribución de contenido y Netflix, esta arquitectura es definitivamente una buena idea.
Hablando de chips de razonamiento, en realidad no está familiarizado con ellos en el mercado. Inferencios de AWS, la Unidad de Procesamiento Tensor de Google (TPU) y las obleas Maia de Microsoft pueden manejar las cargas de trabajo de inferencia y capacitación.
Curiosamente, la noticia de la asociación de OpenAI con Broadcom también impulsó el precio de las acciones de este último para aumentar ligeramente. El último informe de ganancias trimestrales de Broadcom muestra que se espera que venda $ 12 mil millones en obleas de IA este año fiscal, una cifra de $ 1 mil millones más que las expectativas anteriores, pero las reacciones de los inversores parecen un poco decepcionadas. Por lo tanto, trabajar con este nombre más popular en el campo del software de IA indudablemente hará que Wall Street sea aún más emocionado.
Puntos clave:
Operai y Broadcom están negociando para desarrollar chips de inferencia personalizados para reducir los costos de computación en la nube.
El propio chip puede optimizar la colaboración entre hardware y software y mejorar la eficiencia del servicio de IA.
Broadcom espera vender US $ 12 mil millones en obleas de silicio AI este año fiscal, y la noticia de cooperación aumenta los precios de las acciones.
La cooperación entre Openai y Broadcom no es solo un avance tecnológico, sino también un paso importante en el desarrollo futuro de la IA. Al personalizar las chips, se espera que OpenAi ocupe una posición más ventajosa en el campo de la IA.