A empresa nova-iorquina Hebbia anunciou recentemente a conclusão de uma rodada de financiamento Série B de US$ 130 milhões, com uma forte linha de investidores, incluindo Andreessen Horowitz, Index Ventures, Peter Thiel e Google Ventures. A Hebbia está comprometida em construir uma interface de produtividade LLM localizada, projetada para simplificar o processo de extração de valor de dados de todos os tipos e tamanhos. A sua base de clientes-alvo abrange serviços financeiros, como fundos de cobertura e bancos de investimento, e planeia expandir-se ainda mais para mais empresas.
A Hebbia, com sede em Nova York, anunciou que levantou US$ 130 milhões em financiamento da Série B de investidores, incluindo Andreessen Horowitz, Index Ventures, Peter Thiel e o braço de capital de risco do Google.
O que a Hebbia está construindo é algo bastante simples: uma interface de produtividade nativa do LLM que facilita a obtenção de valor dos dados, independentemente do seu tipo ou tamanho. A empresa já está a trabalhar com alguns dos maiores intervenientes na indústria de serviços financeiros, incluindo fundos de cobertura e bancos de investimento, e planeia levar a tecnologia a mais empresas nos próximos dias.
Entrada do produto: https://top.aibase.com/tool/hebbia
Embora os chatbots baseados em LLM possam ser baseados em documentos internos ou imediatos, muitas pessoas observam que esses assistentes são incapazes de responder a perguntas complexas sobre funções de negócios. Em alguns casos, o problema é a janela de contexto, que não consegue lidar com o tamanho do documento fornecido, enquanto em outros casos a complexidade da consulta impede que o modelo a resolva com precisão. Os erros podem até afetar a confiança da equipe no modelo de linguagem.
A Hebbia aborda essa lacuna fornecendo a Matriz copiloto de agente relacionada ao LLM. O produto se enquadra no ambiente de negócios de uma empresa, permitindo que os profissionais do conhecimento façam perguntas complexas relacionadas a documentos internos – desde PDFs, planilhas e documentos do Word até transcrições de áudio – com janelas contextuais ilimitadas.
Depois que o usuário fornece uma consulta e documentos/arquivos relacionados, o Matrix a divide em operações menores que o LLM pode realizar. Isso permite analisar todas as informações contidas no documento de uma só vez e extrair o conteúdo necessário de forma estruturada. Hebbia disse que a plataforma permite que os modelos raciocinem sobre qualquer volume (milhões a bilhões de documentos) e modalidades de dados, ao mesmo tempo que fornece referências relevantes para ajudar os usuários a rastrear cada ação e entender como a plataforma finalmente chegou à resposta.
Com esta última ronda de financiamento, a empresa espera desenvolver esta base e atrair mais grandes empresas para utilizarem a sua plataforma para simplificar a forma como os seus trabalhadores recuperam conhecimento.
A Hebbia não é a única empresa neste espaço. Outras empresas também estão explorando a recuperação de conhecimento baseada em IA para empresas, incluindo a Glean. A startup com sede em Palo Alto, Califórnia, alcançou o status de unicórnio em 2022 e construiu um assistente semelhante ao ChatGPT especificamente para produtividade no local de trabalho. Existem também players como a Vectara que estão trabalhando para possibilitar experiências universais de IA baseadas em dados corporativos.
Destaque:
? A Hebbia recebeu US$ 130 milhões em financiamento Série B para criar uma interface de produtividade localizada para LLM, a fim de facilitar a obtenção de valor a partir dos dados.
?O agente co-piloto Matrix da Hebbia pode analisar as informações contidas em todos os documentos e extrair o conteúdo necessário de forma estruturada.
?A Hebbia fez parceria com instituições como CharlesBank, Center View Partners e a Força Aérea dos EUA e tem mais de 1.000 casos de uso ativos.
O editor do Downcodes concluiu: O financiamento e o posicionamento do produto da Hebbia são dignos de atenção. Sua capacidade de resolver problemas de negócios complexos e sua inovação em aplicações LLM tornaram-na um player importante no campo das ferramentas de produtividade de IA. Vale a pena esperar pelo desenvolvimento futuro.