Perusahaan New York, Hebbia, baru-baru ini mengumumkan penyelesaian putaran pembiayaan Seri B senilai $130 juta, dengan jajaran investor yang kuat termasuk Andreessen Horowitz, Index Ventures, Peter Thiel, dan Google Ventures. Hebbia berkomitmen untuk membangun antarmuka produktivitas LLM lokal yang dirancang untuk menyederhanakan proses mengekstraksi nilai dari semua jenis dan ukuran data. Basis pelanggan sasarannya mencakup layanan keuangan, seperti dana lindung nilai dan bank investasi, dan berencana untuk memperluas jangkauannya ke lebih banyak perusahaan.
Hebbia yang berbasis di New York mengumumkan telah mengumpulkan $130 juta pendanaan Seri B dari investor termasuk Andreessen Horowitz, Index Ventures, Peter Thiel, dan cabang modal ventura Google.
Apa yang Hebbia bangun adalah sesuatu yang cukup sederhana: antarmuka produktivitas asli LLM yang memudahkan untuk mendapatkan nilai dari data, apa pun jenis atau ukurannya. Perusahaan ini telah bekerja sama dengan beberapa pemain terbesar di industri jasa keuangan, termasuk hedge fund dan bank investasi, dan berencana untuk menghadirkan teknologi ini ke lebih banyak bisnis dalam beberapa hari mendatang.
Pintu masuk produk: https://top.aibase.com/tool/hebbia
Meskipun chatbot berbasis LLM dapat didasarkan pada dokumen internal atau cepat, banyak orang mencatat bahwa asisten ini tidak dapat menjawab pertanyaan rumit tentang fungsi bisnis. Dalam beberapa kasus, masalahnya adalah jendela konteks, yang tidak dapat menangani ukuran dokumen yang disediakan, sementara dalam kasus lain, kompleksitas kueri menghalangi model untuk menyelesaikannya secara akurat. Kesalahan bahkan dapat mempengaruhi kepercayaan tim terhadap model bahasa.
Hebbia mengatasi kesenjangan ini dengan menyediakan Matriks co-pilot agen terkait LLM. Produk ini berada dalam lingkungan bisnis perusahaan, memungkinkan pekerja berpengetahuan untuk mengajukan pertanyaan kompleks terkait dokumen internal - mulai dari PDF, spreadsheet, dan dokumen Word hingga transkripsi audio - dengan jendela kontekstual tak terbatas.
Setelah pengguna memberikan kueri dan dokumen/file terkait, Matrix memecahnya menjadi operasi yang lebih kecil yang dapat dilakukan LLM. Hal ini memungkinkannya menganalisis semua informasi yang terkandung dalam dokumen sekaligus dan mengekstraksi konten yang diperlukan dalam bentuk terstruktur. Hebbia mengatakan platform ini memungkinkan model untuk mempertimbangkan volume apa pun (jutaan hingga miliaran dokumen) dan modalitas data, sekaligus memberikan referensi yang relevan untuk membantu pengguna melacak setiap tindakan dan memahami bagaimana platform pada akhirnya sampai pada jawabannya.
Dengan putaran pendanaan terbaru ini, perusahaan berharap dapat membangun landasan ini dan menarik lebih banyak perusahaan besar untuk menggunakan platformnya guna menyederhanakan cara pekerjanya memperoleh pengetahuan.
Hebbia bukan satu-satunya perusahaan di bidang ini. Perusahaan lain juga menjajaki pengambilan pengetahuan berbasis AI untuk perusahaan, termasuk Glean. Startup yang berbasis di Palo Alto, California ini mencapai status unicorn pada tahun 2022 dan membangun asisten seperti ChatGPT khusus untuk produktivitas di tempat kerja. Ada juga pemain seperti Vectara yang berupaya mewujudkan pengalaman AI universal berdasarkan data perusahaan.
Menyorot:
? Hebbia menerima pembiayaan Seri B sebesar US$130 juta untuk menciptakan antarmuka produktivitas lokal bagi LLM guna mempermudah perolehan nilai dari data.
? Co-pilot agen Hebbia, Matrix, dapat menganalisis informasi yang terkandung dalam semua dokumen dan mengekstrak konten yang diperlukan dalam bentuk terstruktur.
? Hebbia telah bermitra dengan institusi seperti CharlesBank, Center View Partners, dan Angkatan Udara A.S., dan memiliki lebih dari 1.000 kasus penggunaan langsung.
Editor Downcodes menyimpulkan: Pembiayaan dan positioning produk Hebbia patut mendapat perhatian. Kemampuannya untuk memecahkan masalah bisnis yang kompleks dan inovasinya dalam aplikasi LLM menjadikannya pemain penting di bidang alat produktivitas AI. Perkembangan masa depan patut dinantikan.