Qlora, BNB, Lora, Peft를 사용하여 비교할 수 없는 성능, 속도 및 안정성으로 모든 모델을 30초 이내에 미세 조정하고 GO를 누르기만 하면 됩니다.
창작자인 Kye와의 1대1 세션을 예약하여 문제에 대해 토론하고 피드백을 제공하거나 Zeta를 개선할 수 있는 방법을 알아보세요.
$ pip3 설치 ft-suite
from fts import FineTuner# 미세 조정 tunermodel_id="google/flan-t5-xxl"dataset_name = "samsung"tuner = FineTuner( model_id=model_id,dataset_name=dataset_name, max_length=150, lora_r=16, lora_alpha=32, 퀀타이즈= True)# 생성 contentprompt_text = "이 아이디어를 요약합니다. 나."print(튜너(prompt_text))
from fts import Inferencemodel = Inference( model_id="georgesung/llama2_7b_chat_uncensored", yangized=True)model.run("당신의 이름은 무엇입니까")
from fts import GPTQInferencemodel_id = "facebook/opt-125m"model = GPTQInference(model_id=model_id, max_length=400)prompt = "먼 땅에서"result = model.run(prompt)print(result)
세계적 수준의 양자화 : 최고 수준의 성능과 보존된 정확도로 모델을 최대한 활용하세요! ?️♂️
자동화된 PEFT : 작업 흐름을 단순화하세요! 우리 툴킷이 최적화를 처리하도록 하세요.
LoRA 구성 : 성능의 판도를 바꿀 수 있는 유연한 LoRA 구성의 잠재력을 알아보세요! ?
원활한 통합 : LLAMA, Falcon 등과 같은 인기 모델과 원활하게 작동하도록 설계되었습니다! ?
여기에서 우리의 야심찬 로드맵을 살짝 엿볼 수 있습니다! 우리는 항상 발전하고 있으며 여러분의 피드백과 기여가 우리의 여정을 형성할 수 있습니다!
추가 예제 스크립트 :
GPT 모델 사용
전이 학습 예시
실제 애플리케이션 샘플
다형성 전처리 기능 :
다양한 데이터 세트를 처리하는 기능 설계
널리 사용되는 소스의 알려진 데이터 세트 구조와 통합
사용자 정의 구조를 위한 맞춤형 데이터세트 청사진
확장된 모델 지원 :
Lama, Falcon 등과의 통합
영어가 아닌 모델 지원
종합 문서 :
자세한 이용안내
미세 조정 모범 사례
양자화 및 LoRA 기능에 대한 벤치마크
대화형 웹 인터페이스 :
손쉬운 미세 조정을 위한 GUI
모델 통찰력을 위한 시각화 도구
고급 기능 :
다른 양자화 기술과 통합
텍스트 생성 이상의 더 많은 작업 유형 지원
모델 디버깅 및 검사 도구
Carper의 TRLX 통합
... 그리고 훨씬 더 많은 것들이 곧 나올 예정입니다!
우리는 앞으로의 여정을 기대하고 있으며 여러분과 함께하고 싶습니다! 피드백, 제안 또는 기여가 필요한 경우 언제든지 문제를 열거나 끌어오기 요청을 보내주세요. 함께 미세 조정의 미래를 만들어 갑시다! ?
MIT
Finetuning-Suite의 메시지를 전파하세요. 이는 모든 사람이 최첨단 모델을 양자화하고 미세 조정할 수 있도록 돕는 기본 도구입니다.
프로젝트를 공유하면 혜택을 받을 수 있는 더 많은 사람들에게 다가갈 수 있으며, 계속해서 제품군을 개발하고 개선하도록 동기를 부여합니다.
즐겨찾는 소셜 미디어 플랫폼에서 Finetuning-Suite를 공유하려면 아래 버튼을 클릭하세요.
트위터에 공유
페이스북에 공유
LinkedIn에 공유
레딧에 공유
또한 Finetuning-Suite를 어떻게 사용하고 있는지 보고 싶습니다! Twitter @finetuning-suite에 태그하여 프로젝트와 경험을 공유해 주세요.
마지막으로, 유용하다고 생각되면 저장소를 잊지 마세요. 귀하의 지원은 우리에게 큰 의미가 있습니다! 감사합니다! ?