使用統一的方式推理不同的RAG Reranker模型| 微調全鏈路的RAG檢索模型| 實驗結果| License
RAG-Retrieval 提供了全鏈路的RAG檢索微調(train)和推理(infer)以及蒸餾(distill)程式碼。
加入我們微信群聊
10/21/2024: RAG-Retrieval發布基於LLM做Reranker任務的兩種不同方法,以及將其蒸餾到bert中的方法。 LLM在Reranker任務上的最佳實務? A simple experiment report(with code)
6/5/2024: RAG-Retrieval的Embedding模型的MRL loss實作。 RAG-Retrieval:讓MRL loss成為訓練向量(embedding)模型的標配
6/2/2024: RAG-Retrieval實作基於LLM偏好監督RAG檢索器微調。 RAG-Retrieval實作基於LLM偏好監督RAG檢索器微調
5/5/2024:發布RAG-Retrieval的輕量級的python庫RAG-Retrieval:你的RAG應用程式值得更好的排序推理框架
3/18/2024:發布RAG-Retrieval RAG-Retrieval知乎介紹
排序模型是任何檢索架構的重要組成部分,也是RAG 的重要組成部分,但目前的現狀是:
因此,RAG-Retrieval發展了一個輕量級的python函式庫rag-retrieval,提供統一的方式來呼叫任意不同的RAG排序模型,其有以下的特點。
支援多種排序模型:支援常見的開源排序模型(Cross Encoder Reranker,Decoder-Only 的LLM Reranker)
長doc友善:支援兩種不同的對於長doc的處理邏輯(最大長度截斷,切分取最大分值)。
益於擴充:如果有新的排序模型,使用者只需要繼承basereranker,並且實作rank以及comput_score函數即可。
#为了避免自动安装的torch与本地的cuda不兼容,建议进行下一步之前先手动安装本地cuda版本兼容的torch。
pip install rag-retrieval
對於Cross Encoder Reranker,只要其使用transformers的AutoModelForSequenceClassification ,那麼就可以使用rag_retrieval的Reranker來進行推理。舉例如下。
bge系列的Cross Encoder模型,例如(BAAI/bge-reranker-base, BAAI/bge-reranker-large, BAAI/bge-reranker-v2-m3)
bce的Cross Encoder模型,例如(maidalun1020/bce-reranker-base_v1)
對於LLM Reranker,rag_retrieval的Reranker支援多種強大的LLM排序模型。也支援使用任意的LLM的chat模型來進行zero shot排序。舉例如下。
bge系列的LLM Reranker模型,例如(BAAI/bge-reranker-v2-gemma, BAAI/bge-reranker-v2-minicpm-layerwise, BAAI/bge-reranker-v2-m3 )
也支援使用任意LLM的chat模型來進行zero shot排序
rag-retrieval套件詳細的使用方法和注意事項可以參考Tutorial
我們做了大量的測試與下面原有推理框架對齊,詳見Tests,他們需要不同的模組來執行,rag_retrieval則使用了統一的介面。
如FlagEmbedding的FlagReranker,FlagLLMReranker,LayerWiseFlagLLMReranker。
如BCEmbedding 的RerankerModel
conda create -n rag-retrieval python=3.8 && conda activate rag-retrieval
#为了避免自动安装的torch与本地的cuda不兼容,建议进行下一步之前先手动安装本地cuda版本兼容的torch。
pip install -r requirements.txt
支援微調任意開源的embedding模型(bge,m3e等等)
支援對兩種數據進行微調:
微調embedding模型流程,詳細的流程可參考模型目錄下的Tutorial。
cd ./rag_retrieval/train/embedding
bash train_embedding.sh
微調colbert模型流程,詳細的流程可參考模型目錄下的Tutorial。
cd ./rag_retrieval/train/colbert
bash train_colbert.sh
微調reranker模型流程,詳細的流程可參考模型目錄下的Tutorial。
cd ./rag_retrieval/train/reranker
bash train_reranker.sh
Model | Model Size(GB) | T2Reranking | MMarcoReranking | CMedQAv1 | CMedQAv2 | Avg |
---|---|---|---|---|---|---|
bge-reranker-base | 1.11 | 67.28 | 35.46 | 81.27 | 84.10 | 67.03 |
bce-reranker-base_v1 | 1.11 | 70.25 | 34.13 | 79.64 | 81.31 | 66.33 |
rag-retrieval-reranker | 0.41 | 67.33 | 31.57 | 83.54 | 86.03 | 67.12 |
其中,rag-retrieval-reranker是我們使用RAG-Retrieval程式碼在hfl/chinese-roberta-wwm-ext模型上訓練所得,訓練資料使用bge-rerank模型的訓練資料.
Model | Model Size(GB) | Dim | T2Reranking | MMarcoReranking | CMedQAv1 | CMedQAv2 | Avg |
---|---|---|---|---|---|---|---|
bge-m3-colbert | 2.24 | 1024 | 66.82 | 26.71 | 75.88 | 76.83 | 61.56 |
rag-retrieval-colbert | 0.41 | 1024 | 66.85 | 31.46 | 81.05 | 84.22 | 65.90 |
其中,rag-retrieval-colbert是我們使用RAG-Retrieval程式碼在hfl/chinese-roberta-wwm-ext模型上訓練所得,訓練資料使用bge-rerank模型的訓練資料.
Model | T2ranking | |
---|---|---|
bge-v1.5-embedding | 66.49 | |
bge-v1.5-embedding finetune | 67.15 | +0.66 |
bge-m3-colbert | 66.82 | |
bge-m3-colbert finetune | 67.22 | +0.40 |
bge-reranker-base | 67.28 | |
bge-reranker-base finetune | 67.57 | +0.29 |
後面有finetune的代表我們使用RAG-Retrieval在對應開源模型的基礎上繼續微調所得,訓練資料使用T2-Reranking的訓練集。
值得注意的是bge的三種開源模型,訓練集中已經包含了T2-Reranking,並且該數據較為通用,因此使用該數據繼續微調的性能提升效果不大,但是如果使用垂直領域的數據集繼續微調開源模型,性能提升會更大。
RAG-Retrieval is licensed under the MIT License.