Ilya Sutskever, um conhecido cientista na área da inteligência artificial, fez uma aterragem forte com a sua nova empresa Safe Superintelligence (SSI) e recebeu um enorme financiamento de mil milhões de dólares, estando a empresa avaliada em cinco mil milhões de dólares. Notavelmente, a SSI concluiu este financiamento em apenas três meses com uma equipa de dez pessoas, demonstrando a sua forte força e apelo de mercado no campo da inteligência artificial. Este financiamento atraiu a participação de instituições de investimento conhecidas, como Andreessen Horowitz e Sequoia Capital, e confirmou ainda o enorme potencial de desenvolvimento e a procura do mercado no domínio da segurança da IA.
Ilya Sutskever, uma figura influente na indústria de IA, acaba de anunciar que sua nova empresa SSI (Safe Superintelligence) concluiu um financiamento de até US$ 1 bilhão, e a avaliação da empresa saltou para US$ 5 bilhões. É importante notar que a SSI demorou apenas três meses para obter este enorme montante de financiamento desde a sua criação, com apenas 10 membros da equipa.
O status de Ilya Sutskever no mundo da IA não pode ser subestimado. Ele já foi uma das figuras-chave da OpenAI. Hoje, ele cofundou a SSI com o ex-líder do projeto de IA da Apple, Daniel Gross, e o ex-pesquisador da OpenAI, Daniel Levy. A primeira rodada de financiamento da empresa atraiu a participação de investidores conhecidos, como Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel e NFDG Investment Partners.
O objetivo da SSI é muito claro – alcançar uma superinteligência segura. Ilya Sutskever disse que a empresa se concentrará em pesquisa e desenvolvimento e poderá levar vários anos para lançar o produto no mercado. Ele enfatizou que a empresa procurará os melhores talentos que sejam consistentes com a cultura e missão da empresa para garantir que a direção do desenvolvimento da tecnologia de IA seja consistente com os valores humanos.
Na rota técnica, a SSI adotará uma abordagem diferente da OpenAI. Embora Ilya Sutskever não tenha revelado muitos detalhes, ele mencionou que a empresa irá explorar a “hipótese de escala” (hipótese expandida), ou seja, o desempenho do modelo de IA é diretamente proporcional ao aumento do poder computacional. A SSI planeja trabalhar com provedores de serviços em nuvem e fabricantes de chips para atender às suas necessidades de poder computacional.
Embora a SSI adote uma estrutura tradicional de empresa com fins lucrativos, que é diferente do modelo de “limitação de lucros” da OpenAI e da estrutura de “confiança de interesse de longo prazo” da Anthropic, seu compromisso com a segurança da IA não mudou. Ilya Sutskever e sua equipe estão trabalhando para garantir que o desenvolvimento da superinteligência seja rápido e seguro, evitando o cenário de IA dominando o mundo, comum em filmes de ficção científica.
À medida que a SSI estabeleceu equipas de investigação em Silicon Valley e Tel Aviv, Israel, o entusiasmo de Ilya Sutskever pelo empreendedorismo cresceu. Ele vê esse empreendedorismo como escalar uma nova montanha, o que é diferente de sua experiência anterior de trabalho na OpenAI. Embora o seu papel na OpenAI tenha mudado devido a uma série de decisões internas, a sua visão para o futuro da IA permanece firme.
O sucesso do estabelecimento e do financiamento da SSI provou mais uma vez a atratividade da investigação básica em IA para o mercado de capitais. À medida que a tecnologia de IA se torna cada vez mais madura, os investidores estão dispostos a apoiar equipas que estejam empenhadas em resolver questões éticas e de segurança da IA. Com a exploração aprofundada da SSI no campo da IA, temos motivos para esperar que esta empresa traga novas revelações e possibilidades para o desenvolvimento futuro da IA.
O rápido desenvolvimento e o enorme financiamento da SSI anunciam um novo avanço no campo da segurança da IA. Os esforços de Ilya Sutskever e da sua equipa forneceram uma garantia importante para o desenvolvimento saudável da tecnologia de inteligência artificial e também forneceram uma nova referência para a direção futura do desenvolvimento da IA.