멋진 LLMOps
목차
- 목차
- LLMOps란 무엇입니까?
- 신속한 엔지니어링
- 모델
- 최적화
- 도구(GitHub)
- 도구(기타)
- RLHF
- 엄청난
- 기여
LLMOps란 무엇입니까?
LLMOps는 대규모 언어 모델(LLM)의 전체 수명주기 관리에 초점을 맞춘 MLOps의 특수한 형태인 MLOps 방식의 일부입니다.
2021년부터 LLM이 빠르게 발전하고 기술이 성숙해지면서 LLM을 효율적으로 관리하기 위한 관행에 초점을 맞추기 시작했고, 전통적인 MLOps 관행을 LLM에 적용한 LLMOps가 이야기되기 시작했습니다.
LLMOps와 MLOps 비교
| LLMOps | MLOps |
---|
정의 | 대규모 언어 모델의 개발 및 배포를 위한 도구 및 인프라 | 일반 기계 학습 워크플로우를 위한 도구 및 인프라 |
집중하다 | 대규모 언어 모델의 고유한 요구 사항 및 과제 | 일반 기계 학습 워크플로 |
핵심기술 | 언어 모델, Transformers 라이브러리, Human-In-The-Loop 주석 플랫폼 | Kubeflow, MLflow, TensorFlow 확장 |
주요 기술 | NLP 전문 지식, 대규모 언어 모델에 대한 지식, 텍스트 데이터에 대한 데이터 관리 | 데이터 엔지니어링, DevOps, 소프트웨어 엔지니어링, 머신러닝 전문 지식 |
주요 과제 | 대량의 텍스트 데이터 관리 및 라벨링, 특정 작업에 대한 기반 모델 미세 조정, 언어 모델의 공정성과 윤리성 보장 | 복잡한 데이터 파이프라인 관리, 모델 해석 가능성 및 설명 가능성 보장, 모델 편향 및 공정성 해결 |
업계 채택 | 신흥 기업, LLMOps에 초점을 맞춘 스타트업과 기업의 수가 증가하고 있습니다. | 사용 가능한 도구 및 프레임워크로 구성된 대규모 에코시스템을 갖추고 구축됨 |
미래 전망 | LLMOps는 대규모 언어 모델이 더욱 널리 보급되고 강력해짐에 따라 점점 더 중요한 연구 분야가 될 것으로 예상됩니다. | MLOps는 효율성, 확장성 및 모델 안정성 향상에 중점을 두고 계속해서 기계 학습 산업의 중요한 구성 요소가 될 것입니다. |
⬆️ 맨 위로 이동
신속한 엔지니어링
- PromptBase - 프롬프트 엔지니어링 시장
- PromptHero - 신속한 엔지니어링을 위한 웹사이트
- 프롬프트 검색 - 프롬프트 엔지니어링을 위한 검색 엔진
- Prompt Perfect - 자동 프롬프트 최적화 프로그램
- Learn Prompting - 프롬프트 엔지니어링을 위한 튜토리얼 웹사이트
- 블로그: 프롬프트 주입 공격 탐색
- 블로그: 신속한 유출
- 논문: 접두사 조정: 생성을 위한 연속 프롬프트 최적화
⬆️ 맨 위로 이동
모델
이름 | 매개변수 크기 | 발표일 |
---|
BERT-대형(336M) | 3억 3,600만 | 2018 |
T5 (11B) | 110억 | 2020 |
고퍼(280B) | 2,800억 | 2021 |
GPT-J (6B) | 60억 | 2021 |
LaMDA (137B) | 1,370억 | 2021 |
메가트론-튜링 NLG(530B) | 5,300억 | 2021 |
T0 (11B) | 110억 | 2021 |
잉꼬 (11B) | 110억 | 2021 |
글램(1.2T) | 1조 2천억 | 2021 |
T5 플랜(540B) | 5,400억 | 2022년 |
OPT-175B (175B) | 1,750억 | 2022년 |
채팅GPT(175B) | 1,750억 | 2022년 |
GPT 3.5(175B) | 1,750억 | 2022년 |
알렉사TM (20B) | 200억 | 2022년 |
블룸(176B) | 1,760억 | 2022년 |
음유 시인 | 아직 발표되지 않음 | 2023년 |
GPT 4 | 아직 발표되지 않음 | 2023년 |
알파코드(41.4B) | 414억 | 2022년 |
친칠라 (70B) | 700억 | 2022년 |
참새 (70B) | 700억 | 2022년 |
PaLM (540B) | 5,400억 | 2022년 |
NLLB(54.5B) | 545억 | 2022년 |
알렉사 TM (20B) | 200억 | 2022년 |
갤럭티카 (120B) | 1,200억 | 2022년 |
UL2(20B) | 200억 | 2022년 |
쥬라기-1 (178B) | 1,780억 | 2022년 |
LLaMA(65B) | 650억 | 2023년 |
스탠포드 알파카 (7B) | 70억 | 2023년 |
GPT-NeoX 2.0(20B) | 200억 | 2023년 |
블룸버그GPT | 500억 | 2023년 |
인형 | 60억 | 2023년 |
쥬라기-2 | 아직 발표되지 않음 | 2023년 |
OpenAssistant LLaMa | 300억 | 2023년 |
코알라 | 130억 | 2023년 |
비쿠나 | 130억 | 2023년 |
PaLM2 | 아직 발표되지 않음, PaLM1보다 작음 | 2023년 |
리마 | 650억 | 2023년 |
MPT | 70억 | 2023년 |
매 | 400억 | 2023년 |
라마 2 | 700억 | 2023년 |
구글 제미니 | 아직 발표되지 않음 | 2023년 |
마이크로소프트 파이-2 | 27억 | 2023년 |
그록-0 | 330억 | 2023년 |
그록-1 | 3,140억 | 2023년 |
태양광 | 107억 | 2024년 |
아체 | 70억 | 2024년 |
그록-1.5 | 아직 발표되지 않음 | 2024년 |
DBRX | 1,320억 | 2024년 |
클로드 3 | 아직 발표되지 않음 | 2024년 |
젬마 1.1 | 70억 | 2024년 |
라마 3 | 700억 | 2024년 |
⬆️ 맨 위로 이동
최적화
- 블로그: Hugging Face Transformers, Accelerate 및 비트샌드바이트를 사용하여 대규모 변환기를 위한 8비트 행렬 곱셈에 대한 간단한 소개
- 블로그: 24GB 소비자 GPU에서 RLHF를 사용하여 200억 LLM 미세 조정
- 블로그: 추론을 위한 대규모 모델 처리
- 블로그: 모든 언어에 대해 Alpaca 모델을 미세 조정하는 방법 | ChatGPT 대안
- 논문: LLM.int8(): 대규모 변환기를 위한 8비트 행렬 곱셈
- 요점: 샤드 수가 다른 LLAMA LLM 모델을 분해/재구성하는 스크립트
⬆️ 맨 위로 이동
도구(GitHub)
- Stanford Alpaca - - 52K 지침에 따른 데모에서 LLaMA 7B 모델을 미세 조정한 모델인 Stanford Alpaca 프로젝트의 저장소입니다.
- LoRA - - "LoRA: 대규모 언어 모델의 낮은 순위 적응" 구현입니다.
- Dolly - - Databricks Machine Learning 플랫폼에서 훈련된 대규모 언어 모델입니다.
- DeepSpeed - - 분산 교육 및 추론을 쉽고 효율적이며 효과적으로 만드는 딥 러닝 최적화 라이브러리입니다.
- LMFlow - - 대규모 기초 모델의 미세 조정 및 추론을 위한 확장 가능한 툴킷입니다. 모두를 위한 대형 모델.
- Promptify - - 프롬프트 엔지니어링을 위한 유틸리티/takeit입니다.
- Auto-GPT - - GPT-4를 완전히 자율적으로 만들기 위한 실험적인 오픈 소스 시도입니다.
- Jarvis - - LLM 인터페이스를 통해 LLM을 복합 모델 커넥터인 ML 커뮤니티와 연결하는 시스템입니다.
- dalai - - 로컬 시스템에서 LLaMA를 실행하는 cli 도구입니다.
- haystack - Transformer 모델 및 LLM을 사용하여 데이터와 상호 작용하는 오픈 소스 NLP 프레임워크입니다.
- langchain - - LLM을 사용한 애플리케이션 개발을 지원하는 라이브러리입니다.
- langflow - - 흐름을 실험하고 프로토타입화하는 손쉬운 방법을 제공하기 위해 반응 흐름으로 설계된 LangChain용 UI입니다.
- deeplake - - 딥 러닝을 위한 데이터 레이크입니다. 데이터 세트를 구축, 관리, 쿼리, 버전 지정 및 시각화합니다.
- alpaca-lora - - 소비자 하드웨어에서 LLaMA를 조정하도록 지시합니다.
- bosquet - - 대규모 언어 모델 기반 애플리케이션을 위한 LLMOps입니다.
- llama_index - - LLM을 외부 데이터와 연결하기 위한 중앙 인터페이스를 제공하는 프로젝트입니다.
- gradio - - 기계 학습 모델을 위한 UI 도우미입니다.
- sharegpt - - 한 번의 클릭으로 가장 거친 ChatGPT 대화를 공유할 수 있는 오픈 소스 Chrome 확장 프로그램입니다.
- keras-nlp - - 전체 개발 주기 동안 사용자를 지원하는 자연어 처리 라이브러리입니다.
- Snowkel AI - - 기초 모델을 위한 데이터 플랫폼입니다.
- 프롬프트플로우 - - 아이디어 구상부터 배포까지 LLM 기반 AI 애플리케이션 개발을 단순화하는 툴킷입니다.
⬆️ 맨 위로 이동
도구(기타)
- PaLM2 API - Google Cloud Vertex AI에서 사용할 수 있는 LLM(대형 언어 모델)인 PaLM2를 만드는 API 서비스입니다.
- Perspective API - 독성을 완화하고 온라인에서 건전한 대화를 보장하는 데 도움이 되는 도구입니다.
⬆️ 맨 위로 이동
RLHF
- 평가 - - 인간 피드백 리소스를 사용하여 선별된 강화 학습 목록입니다.
- trlx - - 인간 피드백을 통한 강화 학습을 사용한 언어 모델의 분산 교육을 위한 저장소입니다. (RLHF)
- PaLM-rlhf-pytorch - - PaLM 아키텍처 위에 RLHF(인간 피드백을 통한 강화 학습) 구현입니다.
⬆️ 맨 위로 이동
엄청난
- Hannibal046/Awesome-LLM
- KennethanCeyer/awesome-llm
- f/굉장한-chatgpt-프롬프트
- Promptslab/Awesome-Prompt-Engineering
- 텐서코드/굉장한 오픈 소스-llmops
- opendilab/awesome-RLHF
⬆️ 맨 위로 이동
기여
Awesome LLMOps 목록에 대한 기여를 환영합니다! 추가 사항을 제안하거나 수정하려면 다음 지침을 따르십시오.
- 저장소를 포크하고 기여를 위한 새 브랜치를 만듭니다.
- README.md 파일을 변경합니다.
- 귀하의 기여가 LLMOps 주제와 관련이 있는지 확인하십시오.
- 기여를 추가하려면 다음 형식을 사용하세요.
[ Name of Resource ] (Link to Resource) - Description of resource
- 해당 카테고리 내에서 알파벳 순서로 기여를 추가하세요.
- 귀하의 기여가 이미 나열되어 있지 않은지 확인하십시오.
- 리소스에 대한 간략한 설명을 제공하고 해당 리소스가 LLMOps와 관련된 이유를 설명하세요.
- 변경 사항에 대한 명확한 제목과 설명이 포함된 풀 요청을 생성하세요.
여러분의 기여에 감사드리며 Awesome LLMOps 목록을 더욱 멋지게 만드는 데 도움을 주셔서 감사합니다!
⬆️ 맨 위로 이동