MegEngine
Documentación | 中文文档
MegEngine es un marco de aprendizaje profundo rápido, escalable y fácil de usar con 3 características clave.
- Marco unificado para entrenamiento e inferencia.
- Cuantización, preprocesamiento dinámico de formas/imágenes e incluso derivación con un solo modelo.
- Después del entrenamiento, coloque todo en su modelo para realizar inferencias en cualquier plataforma con velocidad y precisión. Consulte aquí para obtener una guía rápida.
- Los requisitos de hardware más bajos
- El uso de memoria de la GPU se puede reducir a un tercio del uso de memoria original cuando el algoritmo DTR está habilitado.
- Modelos de inferencia con el menor uso de memoria aprovechando nuestro planificador de memoria Pushdown.
- Inferencia eficiente en todas las plataformas
- Inferencia con velocidad y alta precisión en x86, Arm, CUDA y RoCM.
- Soporta Linux, Windows, iOS, Android, TEE, etc.
- Optimice el rendimiento y el uso de la memoria aprovechando nuestras funciones avanzadas.
Instalación
NOTA: MegEngine ahora admite la instalación de Python en plataformas Linux-64bit/Windows-64bit/MacOS(CPU-Only)-10.14+/Android 7+(CPU-Only) con Python de 3.6 a 3.9. En Windows 10, puede instalar la distribución de Linux a través del Subsistema de Windows para Linux (WSL) o instalar la distribución de Windows directamente. Se admiten muchas otras plataformas para realizar inferencias.
binarios
Para instalar los binarios prediseñados mediante ruedas de pip:
python3 -m pip install --upgrade pip
python3 -m pip install megengine -f https://megengine.org.cn/whl/mge.html
Construyendo desde la fuente
- Detalles de compilación de CMake. consulte BUILD_README.md
- Detalles de compilación del enlace de Python. Consulte BUILD_PYTHON_WHL_README.md
Cómo contribuir
- MegEngine adopta el Convenio de Colaborador como guía para administrar nuestra comunidad. Lea el Código de conducta.
- Cada colaborador de MegEngine debe firmar un Acuerdo de licencia de colaborador (CLA) para aclarar la licencia de propiedad intelectual otorgada con las contribuciones.
- Puedes ayudar a mejorar MegEngine de muchas maneras:
- Escribe código.
- Mejorar la documentación.
- Responda preguntas en MegEngine Forum o Stack Overflow.
- Contribuya con nuevos modelos en MegEngine Model Hub.
- Pruebe una nueva idea en MegStudio.
- Informar o investigar errores y problemas.
- Revisar las solicitudes de extracción.
- Repositorio Star MegEngine.
- Cite MegEngine en sus artículos y artículos.
- Recomienda MegEngine a tus amigos.
- Cualquier otra forma de contribución es bienvenida.
Nos esforzamos por construir una comunidad abierta y amigable. Nuestro objetivo es impulsar a la humanidad con IA.
Cómo contactarnos
- Problema: github.com/MegEngine/MegEngine/issues
- Correo electrónico: [email protected]
- Foro: discusión.megengine.org.cn
- Grupo QQ: 1029741705
Recursos
- MegEngine
- megstudio
- repositorio espejo
- OPENI: openi.org.cn/MegEngine
- Casa rural: gitee.com/MegEngine/MegEngine
Licencia
MegEngine tiene la licencia Apache, versión 2.0
Citación
Si utiliza MegEngine en su publicación, cítelo utilizando la siguiente entrada de BibTeX.
@Misc{MegEngine,
institution = {megvii},
title = {MegEngine:A fast, scalable and easy-to-use deep learning framework},
howpublished = {url{https://github.com/MegEngine/MegEngine}},
year = {2020}
}
Copyright (c) 2014-2021 Megvii Inc. Todos los derechos reservados.