TinyGPT
1.0.0
Implementación de inferencia Tiny C++11 GPT-2 desde cero, que se basa principalmente en el proyecto picoGPT.
Publicación de blog adjunta: Escriba un GPT desde cero (TinyGPT)
Tensor
: clase tensor similar a la interfaz numpy.Model
: implementación del modelo GPT-2 con referencia a gpt2_pico.py.Tokenizer
: tokenizador BPE con exactamente la misma lógica que GPT-2 encoder.py. git clone --recurse-submodules https://github.com/keith2018/TinyGPT.git
Sitio web oficial: Biblioteca matemática optimizada Intel® para computación numérica en CPU y GPU
python3 tools / download_gpt2_model . py
Si tiene éxito, verá el archivo model_file.data
en el directorio assets/gpt2
mkdir build
cmake -B ./build -DCMAKE_BUILD_TYPE=Release
cmake --build ./build --config Release
Esto generará el archivo ejecutable y copiará los activos al directorio app/bin
, luego podrá ejecutar la demostración:
cd app/bin
./TinyGPT_demo
[DEBUG] TIMER TinyGPT::Model::loadModelGPT2: cost: 800 ms
[DEBUG] TIMER TinyGPT::Encoder::getEncoder: cost: 191 ms
INPUT:Alan Turing theorized that computers would one day become
GPT:the most powerful machines on the planet.
INPUT:exit
intel-mkl
https://www.intel.com/content/www/us/en/developer/tools/oneapi/onemkl.htmljson11
https://github.com/dropbox/json11re2
https://github.com/google/re2abseil-cpp
https://github.com/abseil/abseil-cpp Este código tiene la licencia MIT (ver LICENCIA).