Ilya Sutskever, un conocido científico en el campo de la inteligencia artificial, hizo un fuerte aterrizaje con su nueva empresa Safe Superintelligence (SSI) y recibió una enorme financiación de mil millones de dólares, valorando la empresa en 5 mil millones de dólares. Cabe destacar que SSI completó esta financiación en sólo tres meses con un equipo de diez personas, lo que demuestra su gran fortaleza y atractivo en el mercado en el campo de la inteligencia artificial. Esta financiación atrajo la participación de reconocidas instituciones de inversión como Andreessen Horowitz y Sequoia Capital, y confirmó aún más el enorme potencial de desarrollo y la demanda del mercado en el campo de la seguridad de la IA.
Ilya Sutskever, una figura influyente en la industria de la IA, acaba de anunciar que su nueva empresa SSI (Safe Superintelligence) ha completado una financiación de hasta mil millones de dólares y la valoración de la empresa ha saltado a 5 mil millones de dólares. Vale la pena señalar que SSI solo tardó tres meses en obtener esta enorme cantidad de financiamiento de su establecimiento, con solo 10 miembros del equipo.
No se puede subestimar el estatus de Ilya Sutskever en el mundo de la IA. Alguna vez fue una de las figuras clave de OpenAI. Hoy, cofundó SSI con el exlíder del proyecto de IA de Apple, Daniel Gross, y el exinvestigador de OpenAI, Daniel Levy. La primera ronda de financiación de la empresa atrajo la participación de inversores de renombre como Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel y NFDG Investment Partners.
El objetivo de SSI es muy claro: lograr una superinteligencia segura. Ilya Sutskever dijo que la empresa se centrará en la investigación y el desarrollo y que puede tardar varios años en llevar el producto al mercado. Enfatizó que la empresa buscará los mejores talentos que sean coherentes con la cultura y la misión de la empresa para garantizar que la dirección de desarrollo de la tecnología de IA sea coherente con los valores humanos.
En la ruta técnica, SSI adoptará un enfoque diferente al de OpenAI. Aunque Ilya Sutskever no reveló demasiados detalles, mencionó que la compañía explorará la "hipótesis de escala" (hipótesis ampliada), es decir, el rendimiento del modelo de IA es directamente proporcional al aumento de la potencia informática. SSI planea trabajar con proveedores de servicios en la nube y fabricantes de chips para satisfacer sus necesidades de potencia informática.
Aunque SSI adopta una estructura tradicional de empresa con fines de lucro, que es diferente del modelo de "límite de ganancias" de OpenAI y de la estructura de "fideicomiso de intereses a largo plazo" de Anthropic, su compromiso con la seguridad de la IA no ha cambiado. Ilya Sutskever y su equipo están trabajando para garantizar que el desarrollo de la superinteligencia sea rápido y seguro, evitando el escenario de que la IA se apodere del mundo que es común en las películas de ciencia ficción.
A medida que SSI estableció equipos de investigación en Silicon Valley y Tel Aviv, Israel, creció el entusiasmo de Ilya Sutskever por el espíritu empresarial. Considera que este emprendimiento es escalar una nueva montaña, que es diferente de su experiencia laboral anterior en OpenAI. Aunque su rol en OpenAI ha cambiado debido a una serie de decisiones internas, su visión del futuro de la IA se mantiene firme.
El éxito de establecimiento y financiación de SSI demostró una vez más el atractivo de la investigación básica de IA para el mercado de capitales. A medida que la tecnología de IA se vuelve cada vez más madura, los inversores están dispuestos a apoyar a los equipos que están comprometidos a resolver cuestiones éticas y de seguridad de la IA. Con la exploración en profundidad de SSI en el campo de la IA, tenemos motivos para esperar que esta empresa aporte nuevas revelaciones y posibilidades al desarrollo futuro de la IA.
El rápido desarrollo y la enorme financiación de SSI presagian un nuevo avance en el campo de la seguridad de la IA. Los esfuerzos de Ilya Sutskever y su equipo han proporcionado una garantía importante para el desarrollo saludable de la tecnología de inteligencia artificial y también han proporcionado una nueva referencia para la dirección futura del desarrollo de la IA.