Esta es la implementación de nuestro DGOT de papel LREC-Color 2024: gráfico dinámico de pensamientos para la generación científica abstracta.
Recomendamos encarecidamente que use Docker Images DGOT_DEMO para ejecutar nuestros programas.
# pull docker image
docker pull jaycening/dgot_demo:v1.0.0
# Clone this repository and mount it into the image container.
git clone https://github.com/JayceNing/DGoT.git
docker run --gpus all -it -d --privileged=true -v ./DGoT:/home/nxy/LLM/DGoT
# Enter the target folder.
docker exec -it dgot /bin/bash
cd /home/nxy/LLM/DGoT
La imagen está preconfigurada con Internlm2 implementado bajo LMDeploy versión 0.2.4.
Si desea configurar el entorno manualmente, consulte el entorno de documentación_setup.md
Los registros de gráficos de citas de PubMedCite provienen del repositorio de citationsum. Aquí, proporcionamos código para descargar conjuntos de datos basados en la API oficial de PubMed.
python get_data.py --required_num 100
required_num
es el número de entradas de datos requeridas para los conjuntos de datos de capacitación y prueba que se descargarán.Tomar Internlm2 como ejemplo.
cd /home/nxy/internlm2_chat_deploy
lmdeploy serve api_server ./workspace --cache-max-entry-count 0.2
cd /home/nxy/LLM/DGoT
python generate_abstract.py --begin 0 --end 1 --mode " train " --model " internlm2 " --task " default "
begin
y end
Indique los índices de inicio y finalización del conjunto de datos que se está utilizando.mode
indica si el conjunto de datos que se usa es el conjunto de datos de trenes o el conjunto de datos de prueba.model
representa el LLM utilizado para la inferencia.task
representa el tipo de tarea que se está realizando.python generate_abstract.py --begin 0 --end 100 --mode " test " --model " internlm2 " --task " default " --thresh_g 0.34 --thresh_a 0.35 --thresh_i 0.34
thresh_g
, thresh_a
y thresh_i
representan respectivamente los umbrales utilizados para generar transformación, agregar transformación y aumentar la transformación en DGOT. Aquí, proporcionamos tutoriales detallados sobre otros aspectos.
Este trabajo se basa en el siguiente marco de inmediato, modelo de idioma grande y kit de herramientas de implementación del modelo. ¡Gracias por la contribución de código abierto!
Los recursos computacionales de este documento son compatibles con la plataforma informática de alto rendimiento de BUPT.
Si encuentra este repositorio valioso, ¡dale una estrella!
¿Usando esto en su trabajo? Consulte el consulta utilizando la cita proporcionada:
@misc { ning2024dgot ,
title = { DGoT: Dynamic Graph of Thoughts for Scientific Abstract Generation } ,
author = { Xinyu Ning and Yutong Zhao and Yitong Liu and Hongwen Yang } ,
year = { 2024 } ,
eprint = { 2403.17491 } ,
archivePrefix = { arXiv } ,
primaryClass = { cs.CL }
}
Jayce Ning
Página de inicio: https: //jaycening.github.io/zh-cn/
GitHub: https: //github.com/jaycening
Zhihu: https: //www.zhihu.com/people/xinyuning