Qual é a solução para o enigma de US$ 600 bilhões da IA? Executivos de startups discutem custos e comercialização de grandes modelos
Autor:Eve Cole
Data da Última Atualização:2024-11-16 11:42:01
Beijing News Shell Finance News (Repórter Bai Jinlei e Chen Weicheng) De 25 a 26 de outubro, a 10ª Conferência de Internet em Tempo Real RTE2024, co-patrocinada pela RTE Developer Community e Shengwang, foi realizada em Pequim. Na reunião, Jia Yangqing, fundador e CEO da Lepton AI, Wei Wei, sócio da MiniMax, Guoyang Zeng, cofundador e diretor de tecnologia da Wall-Facing Intelligence, e Wang Tiezhen, engenheiro da Hugging Face, discutiram "os US$ 600 da IA problema do bilhão: começando pelo básico" A mesa redonda "Das Instalações à Comercialização" atraiu a atenção da indústria. "O problema de US$ 600 bilhões da IA" originou-se de um artigo de David Cahn, sócio da Sequoia Capital. Ele acreditava que a lacuna entre os enormes investimentos em infraestrutura de IA (inteligência artificial) e a renda real é muito grande. o ponto de uma bolha; a IA pode ser a próxima onda tecnológica transformadora, e o declínio nos preços da computação GPU (unidade de processamento gráfico) será na verdade bom para a inovação a longo prazo e as startups, enquanto os investidores sofrerão. RTE2024 A 10ª Conferência sobre Internet em Tempo Real. Foto | Foto fornecida pelo entrevistado Em relação à construção da infraestrutura de IA, Jia Yangqing compartilhou duas visões principais: Modelos do mesmo tamanho se tornarão cada vez mais capazes, especialmente por meio de tecnologias como destilação e compressão. O atual modelo LLama 3.2 3B pode até mesmo. têm capacidades semelhantes ao modelo anterior LLama 70B, exceto para algumas empresas líderes, mais e mais empresas adotarão "código aberto + ajuste fino" para criar modelos de próxima geração, de modo que a aplicação da arquitetura de código aberto se tornará cada vez mais comum; . “A vantagem do modelo de código aberto é a ecologia e a comunidade. Do ponto de vista da aplicação prática, muitas pessoas podem encontrar um modelo de código aberto e ajustá-lo, mas isso não é suficiente para resolver todos os problemas do modelo de código aberto. " Wang Tiezhen disse: "Veremos no futuro Com cada vez mais trabalho de infra (infraestrutura) e tempo real (processamento em tempo real), todos precisam não apenas prestar atenção ao próprio modelo de código aberto, mas também prestar atenção ao infraestrutura e circuito fechado de dados do modelo de código aberto, para que o modelo de código aberto possa funcionar melhor e mais rápido O tempo real requer TTS (Text to Speech) e modelos grandes se puderem ser montados de alguma forma e colocados mais perto da borda. , pode produzir resultados muito bons. " Como devemos ver o treinamento de modelos grandes? E o custo do raciocínio? Zeng Guoyang compartilhou: “Com o avanço da tecnologia, o poder da computação definitivamente se tornará cada vez mais barato, e a escala de modelos com as mesmas capacidades se tornará cada vez menor, mas a otimização do custo do poder da computação acabará por se traduzir no treinamento de modelos mais poderosos Para realmente atingir o nível de AGI (inteligência artificial geral), só podemos sentir que o modelo está se tornando cada vez mais poderoso, e é difícil sentir a mudança no custo. modelo ponta a ponta, ele está muito preocupado em como fazê-lo. Para fazer o modelo funcionar mais rápido no final, durante o processo de implantação real, eles usarão vários métodos de compactação de quantização e até mesmo de esparsificação para otimizar a sobrecarga real de implantação. Jia Yangqing também destacou que o custo não é levado em consideração. Ele julgou que o custo do raciocínio cairá para um décimo do custo atual dentro de um ano. Ao construir aplicativos, os empreendedores podem realizar a contabilidade de custos com base no custo atual de fazer um pedido, que é um décimo do custo atual. para ver se isso pode ser feito, incluindo modelos, hardware e Depois de aplicado em grandes quantidades, o custo também pode ser reduzido. Relatórios recentes indicam que a OpenAI está desmantelando sua equipe “AGI Readiness”, que se concentrava na pesquisa de segurança de IA. Como os fundadores das empresas de IA presentes veem a segurança e as questões éticas da IA? Por exemplo, Jia Yangqing disse que as aeronaves atuais têm muitos requisitos de segurança, mas a fabricação de foguetes tem mais flexibilidade. Portanto, ele especulou que a OpenAI pode ser para um melhor desenvolvimento inicial, ou pode ser que a segurança da IA não saia da categoria de segurança tradicional. A segurança de dados tradicional e a segurança na nuvem são garantias suficientes. Wang Tiezhen disse que é relativamente cedo para se preocupar com a substituição dos humanos pela IA, mas a IA já teve um impacto negativo em algumas indústrias, como o impacto de vídeos falsos e reais, incluindo o impacto na psicologia dos adolescentes, e lá há muitas oportunidades de empreendedorismo aqui. No evento, Shengwang anunciou que ela e a MiniMax estão aprimorando a primeira API em tempo real (interface de programação de aplicativos de processamento em tempo real) da China. Então, como devemos ver o potencial de aplicação prática dos modelos multimodais de áudio e vídeo? Wei Wei disse que com o surgimento da multimodalidade, as fronteiras da inteligência artificial generativa continuarão a expandir-se e a acelerar a transformação desta indústria. A partir do processo de produto e serviço ao usuário, Wei Wei descobriu que modelos como texto, voz, música e vídeo podem ajudar os criadores de arte, cinema, televisão, música e outros campos a melhorar muito sua eficiência e fornecer-lhes novas ideias e métodos . Wang Tiezhen também acredita que se os efeitos da geração de vídeo puderem exceder os efeitos do filme e não precisarem ser gerados várias vezes, mesmo que o preço seja alto, algumas pessoas estarão dispostas a tentar.