MegEngine
Documentação | 中文文档
MegEngine é uma estrutura de aprendizado profundo rápida, escalonável e fácil de usar com 3 recursos principais.
- Estrutura unificada para treinamento e inferência
- Quantização, pré-processamento dinâmico de forma/imagem e até mesmo derivação com um único modelo.
- Após o treinamento, coloque tudo em seu modelo para inferir em qualquer plataforma com rapidez e precisão. Confira aqui um guia rápido.
- Os requisitos de hardware mais baixos
- O uso de memória da GPU pode ser reduzido para um terço do uso de memória original quando o algoritmo DTR está habilitado.
- Modelos de inferência com o menor uso de memória aproveitando nosso planejador de memória Pushdown.
- Inferência eficiente em todas as plataformas
- Inferência com velocidade e alta precisão em x86, Arm, CUDA e RoCM.
- Suporta Linux, Windows, iOS, Android, TEE, etc.
- Otimize o desempenho e o uso de memória aproveitando nossos recursos avançados.
Instalação
NOTA: MegEngine agora suporta instalação de Python em plataformas Linux-64bit/Windows-64bit/MacOS(somente CPU)-10.14+/Android 7+(somente CPU) com Python de 3.6 a 3.9. No Windows 10, você pode instalar a distribuição Linux por meio do Windows Subsystem for Linux (WSL) ou instalar a distribuição Windows diretamente. Muitas outras plataformas são suportadas para inferência.
Binários
Para instalar os binários pré-construídos por meio de rodas pip:
python3 -m pip install --upgrade pip
python3 -m pip install megengine -f https://megengine.org.cn/whl/mge.html
Construindo a partir da fonte
- Detalhes de construção do CMake. consulte BUILD_README.md
- Detalhes de construção de ligação Python, consulte BUILD_PYTHON_WHL_README.md
Como contribuir
- MegEngine adota Contributor Covenant como diretriz para administrar nossa comunidade. Por favor, leia o Código de Conduta.
- Cada contribuidor do MegEngine deve assinar um Contrato de Licença de Contribuidor (CLA) para esclarecer a licença de propriedade intelectual concedida com as contribuições.
- Você pode ajudar a melhorar o MegEngine de várias maneiras:
- Escreva o código.
- Melhorar a documentação.
- Responda perguntas no Fórum MegEngine ou Stack Overflow.
- Contribua com novos modelos no MegEngine Model Hub.
- Experimente uma nova ideia no MegStudio.
- Relate ou investigue bugs e problemas.
- Revise as solicitações pull.
- Repositório Star MegEngine.
- Cite MegEngine em seus artigos e artigos.
- Recomende MegEngine para seus amigos.
- Qualquer outra forma de contribuição é bem-vinda.
Nós nos esforçamos para construir uma comunidade aberta e amigável. Nosso objetivo é capacitar a humanidade com IA.
Como entrar em contato conosco
- Problema: github.com/MegEngine/MegEngine/issues
- E-mail: [email protected]
- Fórum: discuss.megengine.org.cn
- Grupo QQ: 1029741705
Recursos
- MegEngine
- MegStudio
- repositório de espelho
- OPENI: openi.org.cn/MegEngine
- Gitee: gitee.com/MegEngine/MegEngine
Licença
MegEngine é licenciado sob a licença Apache, versão 2.0
Citação
Se você usa o MegEngine em sua publicação, cite-o usando a seguinte entrada do BibTeX.
@Misc{MegEngine,
institution = {megvii},
title = {MegEngine:A fast, scalable and easy-to-use deep learning framework},
howpublished = {url{https://github.com/MegEngine/MegEngine}},
year = {2020}
}
Copyright (c) 2014-2021 Megvii Inc. Todos os direitos reservados.