Dies ist die Implementierung unseres LEC-Coling 2024-Papiers DGOT: Dynamisches Gedankengraf für wissenschaftliche abstrakte Erzeugung.
Wir empfehlen dringend, dass Sie Docker Images DGOT_DEMO verwenden, um unsere Programme auszuführen.
# pull docker image
docker pull jaycening/dgot_demo:v1.0.0
# Clone this repository and mount it into the image container.
git clone https://github.com/JayceNing/DGoT.git
docker run --gpus all -it -d --privileged=true -v ./DGoT:/home/nxy/LLM/DGoT
# Enter the target folder.
docker exec -it dgot /bin/bash
cd /home/nxy/LLM/DGoT
Das Bild ist mit Internlm2 vorkonfiguriert, der unter LMDeploy -Version 0.2.4 eingesetzt wird.
Wenn Sie die Umgebung manuell konfigurieren möchten
Die Zitierdiagrammdatensätze von PubMedcite stammen aus dem Citationsum -Repository. Hier bieten wir Code zum Herunterladen von Datensätzen basierend auf der offiziellen PubMed -API.
python get_data.py --required_num 100
required_num
ist die Anzahl der Dateneinträge, die für die heruntergeladenen Schulungs- und Testen erforderlich sind.Als Beispiel Internlm2 nehmen.
cd /home/nxy/internlm2_chat_deploy
lmdeploy serve api_server ./workspace --cache-max-entry-count 0.2
cd /home/nxy/LLM/DGoT
python generate_abstract.py --begin 0 --end 1 --mode " train " --model " internlm2 " --task " default "
begin
und end
geben die Start- und Endindizes des verwendeten Datensatzes an.mode
gibt an, ob der verwendete Datensatz Zugdatensatz oder Testdatensatz ist.model
repräsentiert die LLM, die für die Inferenz verwendet wird.task
repräsentiert die Art der Aufgabe, die ausgeführt wird.python generate_abstract.py --begin 0 --end 100 --mode " test " --model " internlm2 " --task " default " --thresh_g 0.34 --thresh_a 0.35 --thresh_i 0.34
thresh_g
, thresh_a
und thresh_i
repräsentieren die Schwellenwerte, die zur Erzeugung von Transformationen, Aggregattransformation und Steigerung der Transformation in DGOT verwendet werden. Hier bieten wir detaillierte Tutorials zu anderen Aspekten.
Diese Arbeit basiert auf dem folgenden Eingabeaufenthaltsrahmen, dem großsprachigen Modell und dem Modell für Modellbereitstellungen. Danke für den Open -Source -Beitrag!
Die Rechenressourcen dieses Papiers werden von der Hochleistungs-Computing-Plattform von BuPT unterstützt.
Wenn Sie dieses Repository wertvoll finden, geben Sie ihm bitte einen Stern!
Verwenden Sie dies in Ihrer Arbeit? Bitte verweisen Sie uns mit dem angegebenen Zitat:
@misc { ning2024dgot ,
title = { DGoT: Dynamic Graph of Thoughts for Scientific Abstract Generation } ,
author = { Xinyu Ning and Yutong Zhao and Yitong Liu and Hongwen Yang } ,
year = { 2024 } ,
eprint = { 2403.17491 } ,
archivePrefix = { arXiv } ,
primaryClass = { cs.CL }
}
Jayce Ning
Startseite: https: //jaycening.github.io/zh-cn/
Github: https: //github.com/jaycening
Zhihu: https: //www.zhihu.com/people/xinyuning