O rápido desenvolvimento da inteligência artificial trouxe demandas computacionais sem precedentes e também trouxe enormes desafios de consumo de energia. Thomas Graham, cofundador da empresa de computação óptica Lightmatter, prevê que, até 2026, o consumo de energia dos centros de dados de inteligência artificial globais atingirá uns impressionantes 40 gigawatts, o equivalente ao consumo de energia de oito cidades de Nova Iorque. Esta previsão levantou preocupações na indústria sobre o equilíbrio entre o desenvolvimento da inteligência artificial e a sustentabilidade energética. Este artigo irá aprofundar esta questão e analisar a solução de computação óptica proposta pela Lightmatter.
Recentemente, o forte aumento na demanda por computação de inteligência artificial atraiu ampla atenção na indústria. Thomas Graham, cofundador da startup de computação óptica Lightmatter, disse em entrevista à Bloomberg que se espera que, até 2026, vários data centers de inteligência artificial que requerem grandes quantidades de eletricidade sejam construídos em todo o mundo, e seu consumo de eletricidade aumentará. ser tanto quanto o da cidade de Nova York, oito vezes mais.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Na entrevista, Graham mencionou que empresas de tecnologia como a Nvidia estão atualmente expandindo grandes instalações de informática em todo o mundo para atender à demanda por treinamento de grandes modelos de inteligência artificial, como o GPT-4. À medida que mais modelos de IA são colocados em produção, a procura por poder computacional continuará a aumentar. Ele destacou que à medida que a inteligência artificial passa da fase de investigação e desenvolvimento para a fase de implantação, a procura de computadores de grande escala aumentará significativamente. Ele enfatizou que a demanda por computação inferencial está crescendo a uma taxa exponencial.
Graham também falou sobre a tecnologia inovadora do Lightmatter. A empresa se concentra no desenvolvimento de chips de computação óptica, uma tecnologia que conecta vários processadores em um único chip semicondutor e substitui links de rede tradicionais por conexões ópticas. Esta tecnologia de interconexão óptica pode transmitir dados com menor consumo de energia e velocidades mais rápidas, tornando as estruturas de rede dos data centers mais eficientes e econômicas.
Ele ressaltou que pelo menos uma dúzia de novos data centers de IA estão atualmente em construção ou planejados, e a energia exigida por esses centros chega a um gigawatt por centro. Embora o consumo diário de electricidade na cidade de Nova Iorque seja de cerca de cinco gigawatts, espera-se que o centro de dados de inteligência artificial global necessite de 40 gigawatts de electricidade no futuro, o que equivale ao consumo de electricidade de oito cidades de Nova Iorque.
A Lightmatter levantou recentemente US$ 400 milhões em capital de risco, avaliando a empresa em US$ 4,4 bilhões. Graham disse que a empresa entrará em produção nos próximos anos. Ele está confiante na expansão da infra-estrutura de computação de inteligência artificial, embora também tenha mencionado que se novos algoritmos que possam realizar cálculos de inteligência artificial de forma mais eficiente apareçam no futuro, isso poderá afetar o investimento da indústria em poder computacional.
A contradição entre o rápido desenvolvimento da inteligência artificial e o consumo de energia tornou-se cada vez mais proeminente. A tecnologia de computação economizadora de energia explorada ativamente por empresas como a Lightmatter fornece novas ideias para resolver este problema. No futuro, a tecnologia de computação de IA de alta eficiência e poupança de energia tornar-se-á uma força motriz chave para o desenvolvimento da indústria e também exigirá os esforços conjuntos de toda a indústria para enfrentar este desafio.