TinyGPT
1.0.0
Implementação de inferência minúscula C++ 11 GPT-2 do zero, que é baseada principalmente no projeto picoGPT.
Postagem de blog que acompanha: Escreva um GPT do zero (TinyGPT)
Tensor
: classe tensor semelhante à interface numpy.Model
: implementação do modelo GPT-2 com referência a gpt2_pico.py.Tokenizer
: tokenizer BPE com exatamente a mesma lógica do GPT-2 encoder.py. git clone --recurse-submodules https://github.com/keith2018/TinyGPT.git
Site oficial: Biblioteca matemática otimizada Intel® para computação numérica em CPUs e GPUs
python3 tools / download_gpt2_model . py
se for bem-sucedido, você verá o arquivo model_file.data
no diretório assets/gpt2
mkdir build
cmake -B ./build -DCMAKE_BUILD_TYPE=Release
cmake --build ./build --config Release
Isso irá gerar o arquivo executável e copiar os ativos para o diretório app/bin
, então você pode executar a demonstração:
cd app/bin
./TinyGPT_demo
[DEBUG] TIMER TinyGPT::Model::loadModelGPT2: cost: 800 ms
[DEBUG] TIMER TinyGPT::Encoder::getEncoder: cost: 191 ms
INPUT:Alan Turing theorized that computers would one day become
GPT:the most powerful machines on the planet.
INPUT:exit
intel-mkl
https://www.intel.com/content/www/us/en/developer/tools/oneapi/onemkl.htmljson11
https://github.com/dropbox/json11re2
https://github.com/google/re2abseil-cpp
https://github.com/abseil/abseil-cpp Este código está licenciado sob a licença MIT (consulte LICENÇA).