NOTA : O OpenAssistant está concluído e o projeto está concluído. Obrigado a todos que contribuíram! Confira nossa postagem no blog para obter mais informações. O conjunto de dados final do OASST2 publicado pode ser encontrado no Huggingface no OpenAssistant/Oasst2
O Open Assistant é um projeto destinado a dar a todos o acesso a um ótimo modelo de idioma baseado em bate -papo.
Acreditamos que, ao fazer isso, criaremos uma revolução na inovação na linguagem. Da mesma maneira que a difusão estável ajudou o mundo a tornar arte e imagens de novas maneiras, esperamos que o Assistente Open possa ajudar a melhorar o mundo, melhorando a própria linguagem.
Coleta de dados
Bater papo
Documentação do projeto
O front -end de bate -papo agora está ao vivo aqui. Faça login e comece a conversar! Tente reagir com um polegar para cima ou para baixo para as respostas do assistente ao conversar.
O frontend da coleta de dados está agora ao vivo aqui. Faça login e comece a assumir tarefas! Queremos coletar um alto volume de dados de qualidade. Ao enviar, classificar e rotular, prompts e respostas do modelo, você estará ajudando diretamente a melhorar os recursos do assistente aberto.
Você não precisa executar o projeto localmente, a menos que esteja contribuindo para o processo de desenvolvimento. O link do site acima o levará ao site público, onde você pode usar o aplicativo de coleta de dados e o bate -papo.
Se você deseja executar o aplicativo de coleta de dados localmente para desenvolvimento, poderá configurar uma pilha inteira necessária para executar os serviços abertos , incluindo o site, back-end e serviços dependentes associados, com o Docker.
Para iniciar a demonstração, execute isso no diretório raiz do repositório (verifique esta FAQ se você tiver problemas):
docker compose --profile ci up --build --attach-dependencies
NOTA: Ao executar no macOS com um chip M1, você deve usar:
DB_PLATFORM=linux/x86_64 docker compose ...
Em seguida, navegue para http://localhost:3000
(pode levar algum tempo para inicializar) e interaja com o site.
NOTA: Se ocorrer um problema com a compilação, vá para as perguntas frequentes e confira as entradas sobre o Docker.
Nota: Ao fazer login por e -mail, navegue para
http://localhost:1080
para obter o link de login de e -mail mágico.
NOTA: Se você deseja executar isso em um ambiente de desenvolvimento padronizado (um "devContainer") usando o VSCode localmente ou em um navegador da Web usando o GitHub Codespaces, você pode usar a pasta
.devcontainer
fornecida.
Você não precisa executar o projeto localmente, a menos que esteja contribuindo para o processo de desenvolvimento. O link do site acima o levará ao site público, onde você pode usar o aplicativo de coleta de dados e o bate -papo.
Observe também que a configuração local é apenas para desenvolvimento e não deve ser usada como um chatbot local, a menos que você saiba o que está fazendo.
Se você souber o que está fazendo, consulte a pasta inference
para colocar o sistema de inferência em funcionamento e dê uma olhada em --profile inference
, além de --profile ci
no comando acima.
Não vamos parar em replicar o chatgpt. Queremos criar o assistente do futuro, capaz de não apenas escrever email e cartas de cobertura, mas fazer um trabalho significativo, usar APIs, pesquisar informações dinamicamente e muito mais, com a capacidade de ser personalizado e estendido por qualquer pessoa. E queremos fazer isso de uma maneira que seja aberta e acessível, o que significa que não devemos não apenas criar um ótimo assistente, mas também torná -lo pequeno e eficiente o suficiente para executar o hardware do consumidor.
Podemos então pegar o modelo resultante e continuar com a amostragem de conclusão Etapa 2 para uma próxima iteração.
Vision & Roadmap
Estruturas de dados importantes
Todos os projetos de código aberto começam com pessoas como você. O código aberto é a crença de que, se colaborarmos, podemos oferecer juntos nosso conhecimento e tecnologia ao mundo em benefício da humanidade.
Confira nosso guia contribuinte para começar.