El editor de Downcodes se enteró de que OpenAI está cooperando con Broadcom para desarrollar chips de inferencia personalizados y que Taiwan Semiconductor Manufacturing Company (TSMC) puede actuar como fundición. Este movimiento ha atraído una atención generalizada en la industria y la especulación sobre la dirección futura del desarrollo de OpenAI es rampante. Este artículo profundizará en las razones detrás del desarrollo de chips especializados por parte de OpenAI y su impacto potencial.
Recientemente, se informó que OpenAI está trabajando con Broadcom para desarrollar un chip de inferencia personalizado. Según Reuters, las conversaciones entre las dos empresas son muy confidenciales y Taiwan Semiconductor Manufacturing Company (TSMC) puede actuar como fundición para el proyecto. Esta noticia provocó una especulación generalizada sobre la dirección futura del desarrollo de OpenAI.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
Entonces, ¿por qué OpenAI necesita su propio chip de inferencia? En primer lugar, los costos de computación en la nube de OpenAI son muy altos. Aunque socios como Microsoft cubren parte de los costos, controlar el hardware usted mismo sin duda puede reducir significativamente los costos operativos. Muchas empresas han descubierto que construir sus propios centros de datos es mucho más económico que alquilar servicios en la nube.
Además, el desarrollo de chips especiales adaptados a sus propios servicios también puede ser un objetivo estratégico de OpenAI. Como todos sabemos, las aplicaciones de IA consumen enormes cantidades de energía, por lo que al optimizar la sinergia entre hardware y software, los servicios de OpenAI serán más eficientes.
OpenAI también está presentando a los inversores la idea de construir centros de datos a gran escala dedicados a ejecutar servicios de IA que también podrían ser más baratos de construir u operar si están equipados con chips personalizados. Es más, no se pueden ignorar las consideraciones de las cadenas de suministro descentralizadas. Debido a la limitada capacidad de producción global de semiconductores, existe el riesgo de depender de proveedores externos, y desarrollar sus propios chips puede reducir la dependencia de productos de terceros.
Si bien no podemos imaginar que OpenAI esté dispuesto a entrar en el problemático negocio de vender hardware, que requiere una gran inversión real y aumentaría la plantilla, podría implementarse en el borde de la red, donde las tareas de inferencia a menudo necesitan ser tan Lo más cerca posible del equipo relacionado con el usuario, como muchas redes de distribución de contenido y Netflix, esta arquitectura es definitivamente una buena idea.
Hablando de chips de inferencia, en realidad no son ajenos al mercado. Cosas como Inferentia de AWS, la Unidad de procesamiento tensor (TPU) de Google y el silicio Maia de Microsoft pueden manejar cargas de trabajo de inferencia y entrenamiento.
Curiosamente, la noticia de la asociación de OpenAI con Broadcom también hizo subir ligeramente el precio de las acciones de este último. El último informe trimestral de ganancias de Broadcom mostró que espera vender 12 mil millones de dólares en obleas de silicio de IA este año fiscal, una cifra que es 1 mil millones de dólares más que las expectativas anteriores, pero los inversores respondieron con cierta decepción. Por lo tanto, trabajar con uno de los nombres más populares en software de inteligencia artificial sin duda entusiasmará aún más a Wall Street.
La cooperación entre OpenAI y Broadcom presagia una mayor integración de la cadena de la industria de la IA y brinda a OpenAI mayores capacidades de control de costos y autonomía tecnológica. En el futuro, los chips de IA personalizados pueden convertirse en uno de los factores clave para que las grandes empresas de IA mejoren su competitividad. Esto tiene una importancia de gran alcance para el desarrollo de toda la industria de la IA.