
세계 최고의 대형 언어 모델 리소스가 지속적으로 업데이트됩니다.
자세한 정보를 확인하십시오
[온라인 읽기]
내용물
- 데이터
- 미세 조정
- 추론
- 평가
- 사용을 경험하십시오
- 지식 기반 래그
- 자치령 대표
- 찾다
- 서적
- 강의
- 지도 시간
- 종이
- 팁
데이터
메모
다음은 명명 된数据
여기에는 특정 데이터 세트가 없지만 대규모 데이터 수집을 처리하는 방법이 제공됩니다.
우리는 항상 사람들에게 낚시하는 방법을 가르치는 것보다 낚시하는 방법을 가르치는 것이 낫다고 믿습니다.
- AOTOLABEL : LLM으로 라벨, 텍스트 데이터 세트를 깨끗하고 강화합니다.
- Labelllm : 오픈 소스 데이터 주석 플랫폼.
- Data-Juicer : LLM에 대한 데이터를 더 높은 품질의, 지친, 더 소화하기 쉬운 원 스톱 데이터 처리 시스템!
- Omniparser : CSV, JSON, XML, EDI, 텍스트 등의 기본 Golang ETL 스트리밍 파서 및 변환 라이브러리.
- Mineru : Mineru는 원 스톱, 오픈 소스, 고품질 데이터 추출 도구이며 PDF/웹 페이지/전자 책 추출을 지원합니다.
- PDF-Extract-Kit : 고품질 PDF 컨텐츠 추출을위한 포괄적 인 툴킷.
- Parsera : LLMS로 웹 사이트를 폐기하기위한 경량 라이브러리.
- Sparrow : Sparrow는 다양한 문서 및 이미지에서 효율적인 데이터 추출 및 처리를위한 혁신적인 오픈 소스 솔루션입니다.
- DOCLING : 쉽고 속도로 PDF를 JSON 또는 Markdown으로 변환하십시오.
- GOT-ACR2.0 : OCR 모델.
- LLM Decontaminator : 벤치 마크와 언어 모델에 대한 벤치 마크 및 오염을 다시 생각합니다.
- DataTrove : DataTrove는 매우 대규모로 텍스트 데이터를 처리, 필터링 및 제거하는 라이브러리입니다.
- LLM-Swarm : Cosmopedia와 같은 대형 합성 데이터 세트를 생성합니다.
- Distilabel : Distilabel은 검증 된 연구 논문을 기반으로 빠르고 신뢰할 수 있고 확장 가능한 파이프 라인이 필요한 엔지니어를위한 합성 데이터의 프레임 워크 및 AI 피드백입니다.
- 공통 크롤링 파이프 라인 크레이터 : 일반 크롤링 파이프 라인 제작자.
- 표식 : 표지 및 CSV로 테이블을 감지하고 추출합니다.
- Zerox : gpt-4o-mini와 함께 제로 샷 PDF OCR.
- DoClayout-Molo : 다양한 합성 데이터 및 글로벌-로컬 적응 형 인식을 통한 문서 레이아웃 분석 향상.
- Tensorzero : 경험을 통해 LLM을 향상시킵니다.
- 프롬프트 : 로컬 LLM을 사용하여 큰 합성 데이터를 생성합니다.
- PDF-extract-API : 최첨단 현대 OCRS + Ollama 지원 모델을 사용한 문서 (PDF) 추출 및 구문 분석 API.
- PDF2HTMLEX : 텍스트 나 형식을 잃지 않고 PDF를 HTML로 변환하십시오.
- 추출 : 많은 언어에 대한 바인딩으로 빠르고 효율적인 비정형 데이터 추출.
↥ 위로 돌아갑니다
미세 조정
- LLAMA-FACTORY : 100+ LLM의 효율적인 미세 조정을 통합합니다.
- UNSLOTH : 2-5 배 더 빠른 80% 낮은 메모리 LLM FINENENTNING.
- TRL : 변압기 강화 학습.
- Firefly : Firefly : 교육을 지원하는 대형 모델 교육 도구 수십 개의 큰 모델
- XTUNER : 대형 모델을 미세 조정하기위한 효율적이고 유연하며 완전한 기능을 갖춘 툴킷.
- Torchtune : LLM 미세 조정을위한 기본 파이토치 라이브러리.
- SWIFT : PEFT 또는 풀 파라미터를 사용하여 200+ LLM 또는 15+ MLLM을 미세한 채무를 사용하십시오.
- Autotrain : 최신 기계 학습 모델을 자동으로 교육, 평가 및 배포하는 새로운 방법.
- OpenRLHF : 사용하기 쉽고 확장 가능하며 고성능 RLHF 프레임 워크 (70B+ Full Tuning & Lora & Mixtral & KTO).
- Ludwig : 맞춤형 LLM, 신경망 및 기타 AI 모델을 구축하기위한 저 코드 프레임 워크.
- Mistral-Finetune : Mistral의 모델을 메모리 효율적이고 성능이 좋은 양조를 가능하게하는 가벼운 코드베이스.
- Aikit : 오픈 소스 LLM을 쉽게 미세 조정, 빌드 및 배포하십시오!
- H2-LLMSTUDIO : H2O LLM Studio- 미세 조정 LLM을위한 프레임 워크 및 No-Code GUI.
- Litgpt : Pretrain, Finetune, 자체 데이터에 20 개 이상의 LLM을 배포합니다.
- LLMBOX : 통합 교육 파이프 라인 및 포괄적 인 모델 평가를 포함하여 LLM을 구현하기위한 포괄적 인 라이브러리.
- Paddlenlp : 사용하기 쉬운 강력한 NLP 및 LLM 라이브러리.
- Workbench-llamafactory : 이것은 llamafactory를 사용한 엔드 투 엔드 모델 개발 워크 플로를 보여주는 Nvidia AI Workbench 예제 프로젝트입니다.
- OpenRLHF : 사용하기 쉽고 확장 가능하며 고성능 RLHF 프레임 워크 (70B+ PPO 전체 튜닝 및 반복 DPO & LORA & MIXTRAL).
- Tinyllava Factory : 소규모 대형 멀티 모달 모델의 프레임 워크.
- LLM-Foundry : Databricks Foundation 모델을위한 LLM 교육 코드.
- LMMS-Finetune : Llava-1.5, Qwen-VL, Llava-Interleave, Llava-Next-Video, Phi3-V 등을 지원하는 Fintuning (Full, Lora) 대형 멀티 모드 모델을위한 통합 코드베이스.
- Simplifine : Simplifine을 사용하면 Hugging Face 데이터 세트 또는 모델을 사용하여 한 줄의 코드로 LLM FineneTuning을 호출 할 수 있습니다.
- Transformer Lab : 고급 LLM 엔지니어링을위한 오픈 소스 애플리케이션 : 자체 컴퓨터에서 대형 언어 모델을 상호 작용, 훈련, 미세 조정 및 평가합니다.
- Liger-Kernel : LLM 교육을위한 효율적인 Triton 커널.
- ChatLearn : 대규모 정렬을위한 유연하고 효율적인 교육 프레임 워크.
- 나노트론 : 최소한의 대형 언어 모델 3D-parallelism 훈련.
- 프록시 튜닝 : 프록시에 의한 언어 모델 튜닝.
- 효과적인 LLM 정렬 : 효과적인 LLM 정렬 툴킷.
- 오토 트레인 조정
- Meta Lingua : LLM을 연구하기위한 마른적이고 효율적이며 사냥하기 쉬운 코드베이스.
- Vision-Llm Alignemnt :이 저장소에는 LLAVA 모델 및 LLAMA-3.2- vision 모델을 포함하여 비전 기반 LLM 용으로 설계된 SFT, RLHF 및 DPO 코드가 포함되어 있습니다.
- FINETUNE-QWEN2-VL : 미세 조정 또는 사전 훈련 QWEN2-VL 모델을위한 빠른 시작.
↥ 위로 돌아갑니다
추론
- Ollama : Llama 3, Mistral, Gemma 및 기타 대형 언어 모델로 일어나서 달리기.
- Open Webui : LLMS (이전 Ollama Webui) 용 사용자 친화적 인 Webui.
- Text Generation Webui : 대형 언어 모델을위한 Gradio Web UI는 변압기, GGUF (Llama Models)를 지원합니다.
- Xinference : 언어, 음성 인식 및 멀티 모달 모델을 제공하도록 설계된 강력하고 다재다능한 라이브러리.
- Langchain : 컨텍스트 인식 추론 응용 프로그램을 구축하십시오.
- llamaindex : LLM 응용 프로그램을위한 데이터 프레임 워크.
- LOBE-Chat : 오픈 소스, 현대 디자인 LLMS/AI 채팅 프레임 워크는 다중 AI 제공 업체, 멀티 모달 (Vision/TTS) 및 플러그인 시스템을 지원합니다.
- Tensorrt-LLM : Tensorrt-LLM은 사용자에게 사용하기 쉬운 Python API를 제공하여 LLM (Lange Language Models)을 정의하고 NVIDIA GPU에서 효율적으로 추론을 수행하기 위해 최첨단 최적화를 포함하는 Tensorrt 엔진을 구축합니다.
- VLLM : LLMS 용 고 처리량 및 메모리 효율적인 추론 및 서빙 엔진.
- Llamachat : Native MacOS 앱에서 좋아하는 Llama 모델과 채팅하십시오.
- NVIDIA ChatRTX : ChatRTX는 자신의 컨텐츠 (DOC, 노트 또는 기타 데이터에 연결된 GPT 대형 언어 모델)를 개인화 할 수있는 데모 앱입니다.
- LM Studio : 현지 LLM을 발견, 다운로드 및 실행하십시오.
- Chat-With-MLX : MLX 프레임 워크를 사용하여 Apple Silicon에서 기본적으로 데이터와 채팅하십시오.
- LLM 가격 : 예산에 대한 완벽한 대형 언어 모델 (LLM) API를 신속하게 찾으십시오!
- 오픈 인터프리터 : 컴퓨터 용 자연어 인터페이스.
- Chat-Ollama : LLM을 기반으로 한 오픈 소스 챗봇은 광범위한 언어 모델과 지식 기반 관리를 지원합니다.
- Chat-Ui : 오픈 소스 코드베이스 HuggingChat 앱에 동력을 공급합니다.
- MEMGPT : 장기 메모리 및 사용자 정의 도구로 LLM 에이전트를 만듭니다.
- KOBOLDCPP : Koboldai의 UI로 다양한 GGML 및 GGUF 모델을 실행하는 간단한 1 파일 방법.
- LLMFARM : GGML 라이브러리를 사용하여 iOS 및 MACOS 오프라인의 LLAMA 및 기타 대형 언어 모델.
- Enchanted : Enchanted는 Ollama를 사용하여 LLAMA2, MISTRAL 또는 VICUNA와 같은 개인 자체 호스팅 언어 모델과 채팅하기위한 iOS 및 MACOS 앱입니다.
- FLOWISE : UI를 드래그 앤 드롭하여 맞춤형 LLM 흐름을 구축하십시오.
- Jan : Jan은 컴퓨터에서 100% 오프라인을 실행하는 Open Sourt 대안입니다 (LLAMA.CPP, Tensorrt-Llm).
- LMDEPLOY : LMDEPLOY는 LLMS를 압축, 배포 및 서비스하기위한 툴킷입니다.
- Routellm : LLM 라우터 서빙 및 평가를위한 프레임 워크 - 품질을 손상시키지 않고 LLM 비용을 절약하십시오!
- 최소 : 장거리 텍스트 LLMS의 추론 속도를 높이려고, 적절하고 동적 스파 스가주의를 계산하여 A100에서 미리 채우기 위해 추론 대기 시간을 최대 10 배까지 줄입니다. 정확도를 유지합니다.
- MEM0 : 개인화 된 AI의 메모리 레이어.
- SGLANG : SGLANG은 큰 언어 모델과 비전 언어 모델을위한 또 다른 빠른 서빙 프레임 워크입니다.
- Airllm : Airllm은 추론 메모리 사용량을 최적화하여 70B 대형 언어 모델이 양자화, 증류 및 가지 치기없이 단일 4GB GPU 카드에서 추론을 실행할 수 있으며 8GB VRAM에서 405B LLAMA3.1을 실행할 수 있습니다.
- LLMHUB : LLMHUB는 다양한 언어 모델 (LLM)과의 운영 및 상호 작용을 간소화하도록 설계된 경량 관리 플랫폼입니다.
- Yuanchat
- Litellm : OpenAi 형식 [Bedrock, Huggingface, Vertexai, Togetherai, Azure, Openai, Groq 등을 사용하여 모든 LLM API를 호출하십시오.
- GUIDELLM : GUIDELLM은 LLMS (Large Language Model)의 배포를 평가하고 최적화하기위한 강력한 도구입니다.
- LLM-ENGINES : 오픈 소스 모델 (VLLM, SGLANG, TOTHER) 및 상용 모델 (OpenAI, Mistral, Claude)을 포함한 대형 언어 모델 (LLM)을위한 통합 추론 엔진.
- OARC : OLLAMA_AGENT_ROLL_CAGE (OARC)는 Coqui-TTS Speech Models, Keras Classes, Llava Vision, Whisper Recognition 등을 가진 Ollama LLM을 융합시키는 로컬 Python 에이전트입니다.
- G1 : Groq에서 llama-3.1 70b를 사용하여 O1과 같은 추론 체인을 생성합니다.
- MemoryScope : MemoryScope는 LLM 챗봇에 강력하고 유연한 장기 메모리 기능을 제공하여 그러한 능력을 구축하기위한 프레임 워크를 제공합니다.
- Openllm : 클라우드의 OpenAI 호환 API 엔드 포인트로 Llama 3.1, Gemma와 같은 오픈 소스 LLM을 실행하십시오.
- Infinity : LLM 애플리케이션을 위해 구축 된 AI-Native 데이터베이스는 밀집된 삽입, 스파 스 삽입, 텐서 및 전체 텍스트를 엄청나게 빠르게 검색합니다.
- OPTILLM : LLM의 정확성과 성능을 향상시킬 수있는 여러 최첨단 기술을 구현하는 OpenAI API 호환 최적화 된 추론 프록시.
- LLAMA 박스 : LLAMA.CPP를 기반으로 한 LLM 추론 서버 구현.
↥ 위로 돌아갑니다
평가
- LM-Evaluation-Harness : 언어 모델의 소수의 평가를위한 프레임 워크.
- OpenCompass : OpenCompass는 100 개 이상의 데이터 세트를 통해 광범위한 모델 (LLAMA3, MISTRAL, InternLM2, GPT-4, LLAMA2, Qwen, GLM, Claude 등)을 지원하는 LLM 평가 플랫폼입니다.
- LLM-Comparator : LLM 비교기는 LLM 응답을 나란히 평가하고 분석하기위한 대화식 데이터 시각화 도구입니다.
- Evalscope
- 직조 : LLM 애플리케이션을 추적하고 평가하기위한 경량 툴킷.
- Mixeval : LLM 벤치 마크 혼합물에서 군중의 지혜를 파생시킵니다.
- 평가 가이드 북 : LLM이 특정 작업에서 잘 작동하는지 궁금한 적이 있다면이 안내서는 귀하를위한 것입니다!
- Ollama 벤치 마크 : Ollama (Local LLM)를 통한 처리량을위한 LLM 벤치 마크.
- VLMEVALKIT : LVLM (Large Vision-Language Models)의 오픈 소스 평가 툴킷, 지원 ~ 100 VLMS, 40+ 벤치 마크.
LLM API 服务平台
:
- 그로크
- 실리콘 기반 흐름
- 화산 엔진
- Wen Xin Qianfan
- 대시 스코프
↥ 위로 돌아갑니다
사용을 경험하십시오
- LMSYS Chatbot Arena : 야생에서 LLM을 벤치마킹합니다
- Compassarena Sinan Mockup Arena
- 랭야 뱅
- 포옹 페이스 공간
- Wisemodel 공간
- 포
- 린 형제의 큰 모델 와일드 목록
- 오픈 루터
- anychat
↥ 위로 돌아갑니다
지식 기반 래그
- Nothinglm : 전체 걸레 및 AI 에이전트 기능이있는 모든 LLM 용 All-In-One AI 앱.
- MAXKB : LLM 대형 언어 모델을 기반으로 한 지식 기반 질문 및 답변 시스템. 상자 밖에서, 타사 비즈니스 시스템에 빠르게 포함 된 지원
- Ragflow : 깊은 문서 이해를 기반으로 한 오픈 소스 헝겊 (검색 세대 생성) 엔진.
- DIFY : Open-Source LLM App Development 플랫폼은 AI 워크 플로, RAG 파이프 라인, 모델 관리, 관찰 기능 등을 결합하여 프로토 타입에서 프로덕션으로 빠르게 이동할 수 있습니다.
- FASTGPT : LLM을 기반으로 구축 된 지식 기반 플랫폼은 기본 데이터 처리 및 모델 호출 기능을 제공하며 흐름 시각화를 통해 워크 플로 오케스트레이션을 허용합니다.
- Langchain-chatchat : Langchain 및 Chatglm과 같은 다양한 대형 언어 모델을 기반으로 한 지역 지식 기반 질문 및 답변
- Qanything : 무엇이든 기반한 질문과 답변.
- Quivr : 개인 생산성 어시스턴트 (RAG) hat hat hat hat with hat (pdf, csv,…
- RAG-GPT : LLM 및 RAG 기술을 활용하는 RAG-GPT는 사용자 가중화 된 지식 기반에서 배우고 광범위한 쿼리에 대한 상황에 맞는 답변을 제공하여 빠르고 정확한 정보 검색을 보장합니다.
- Verba : Weaviate가 구동하는 검색 증강 생성 (RAG) 챗봇.
- FlashRag : 효율적인 헝겊 연구를위한 파이썬 툴킷.
- 그래프 크래그 : 모듈 식 그래프 기반 검색 방지 생성 (RAG) 시스템.
- Lightrag : Lightrag는 Retriever-Agent-Generator 파이프 라인을 구축하고 최적화하는 개발자를 도와줍니다.
- Graphrag-Ollama-UI : Gradio UI 및 추가 기능이있는 Ollama를 사용하는 그래프 래그.
- Nano-Graphrag : 간단하고 쉬운 그래프 크래그 구현.
- RAG 기술 :이 저장소는 RAG (Resprieved-Augmented Generation) 시스템을위한 다양한 고급 기술을 보여줍니다. RAG 시스템은 정보 검색을 생성 모델과 결합하여 정확하고 상황에 맞는 응답을 제공합니다.
- RAGAS : 검색 증강 생성 (RAG) 파이프 라인을위한 평가 프레임 워크.
- KOTAEMON : 최종 사용자 및 개발자와 함께 구축 된 오픈 소스 클리닝 및 사용자 정의 RAG UI.
- RAGAPP : 모든 기업에서 에이전트 래그를 사용하는 가장 쉬운 방법입니다.
- TURBORAG : 덩어리 텍스트를 위해 미리 계산 된 KV 캐시로 검색 방지 생성을 가속화합니다.
- Lightrag : 간단하고 빠른 검색 세대.
- Ten : 세계 최초의 진정한 실시간 멀티 모달 AI 에이전트 프레임 워크 인 Next-Gen AI-Agent 프레임 워크.
- Autorag : 데이터 용 광학 래그 파이프 라인을 자동으로 찾을 수있는 Rag Automl 도구.
- KAG : KAG는 OpenSPG 엔진을 기반으로 한 지식 강화 세대 프레임 워크로, 지식이 강화 된 엄격한 의사 결정 및 정보 검색 지식 서비스를 구축하는 데 사용됩니다.
- 빠른 그래프 레이그 : 사용 사례, 데이터 및 쿼리에 지능적으로 적응하는 래그.
- 작은 그래프 그라그
- DB-GPT 그래프 : DB-GPT 그래프는 트리플 레드 기반 지식 그래프와 문서 구조 그래프를 모두 통합하면서 커뮤니티 및 문서 검색 메커니즘을 활용하여 RAG 기능을 향상시켜 Microsoft의 그래프에 필요한 토큰의 50% 만 소비합니다.
- Chonkie : 가볍고 번개가 빠르며 텍스트를 조용히 할 준비가 된 말도 안되는 헝겊 청킹 라이브러리.
↥ 위로 돌아갑니다
자치령 대표
- Autogen : Autogen은 작업을 해결하기 위해 서로 대화 할 수있는 여러 에이전트를 사용하여 LLM 응용 프로그램을 개발할 수있는 프레임 워크입니다
- Crewai : Crewai는 롤 플레잉, 자율적 인 AI 요원을 조정하는 프레임 워크를 제공하여 에이전트가 완벽하게 협력하여 복잡한 작업을 다루도록합니다.
- 코즈
- AgentGpt : 브라우저에서 자율 AI 에이전트를 조립, 구성 및 배포합니다.
- Xagent : 복잡한 작업 해결을위한 자율 LLM 에이전트.
- MobileAgent : 강력한 모바일 장치 운영 보조 가족.
- LAGENT : LLM 기반 에이전트 구축을위한 경량 프레임 워크.
- QWEN-AGENT : QWEN2에 구축 된 에이전트 프레임 워크 및 응용 프로그램, 기능 호출, 코드 통역사, 래그 및 크롬 확장 기능이 포함됩니다.
- Linkai : 원 스톱 AI 지능형 건물 플랫폼
- Baidu AppBuilder
- AgentUniverse : Agentuniverse는 LLM 다중 에이전트 프레임 워크로 개발자는 커뮤니티를 통해 다중 에이전트 애플리케이션을 쉽게 구축 할 수 있습니다.
- Lazyllm : 코드가 낮은 다중 에이전트 대규모 응용 프로그램 구축을위한 개발 도구
- AgentScope : LLM에 힘 입힌 다중 에이전트 애플리케이션을 더 쉽게 구축하기 시작합니다.
- MOA : MOA (Mixture of Agents)는 여러 LLM의 집단적 강점을 활용하여 성능을 향상시켜 최첨단 결과를 달성하는 새로운 접근법입니다.
- AI 에이전트 응용 프로그램 개발 프레임 워크.
- Omagent : 복잡한 작업을 해결하기위한 멀티 모달 에이전트 프레임 워크.
- Tribe : 다중 에이전트 팀을 신속하게 구축하고 조정하는 코드 도구가 없습니다.
- CAMEL : 최초의 LLM 다중 에이전트 프레임 워크 및 에이전트의 스케일링 법칙을 찾는 데 전념하는 오픈 소스 커뮤니티.
- Praisonai : Praisonai Application은 Autogen 및 Crewai 또는 유사한 프레임 워크를 Multi-Agent LLM 시스템을 구축하고 관리하기위한 저 코드 솔루션으로 결합하여 단순성, 사용자 정의 및 효율적인 인간 에이전트 협력에 중점을 둡니다.
- IOA : 협업 AI 에이전트를위한 오픈 소스 프레임 워크, 다양성, 분산 에이전트가 인터넷과 같은 연결을 통해 복잡한 작업을 팀으로 구성하고 해결할 수 있도록합니다.
- Llama-Agentic-System : Llama Stack API의 에이전트 구성 요소.
- 에이전트 제로 : 제로 제로는 사전 정의 된 에이전트 프레임 워크가 아닙니다.
- 에이전트 : 데이터 중심의 자체 진화 자율 언어 에이전트를위한 오픈 소스 프레임 워크.
- AgentScope : LLM에 힘 입힌 다중 에이전트 애플리케이션을 더 쉽게 구축하기 시작합니다.
- Fastagency : 다중 에이전트 워크 플로우를 생산에 가져 오는 가장 빠른 방법.
- Swarm : OpenAI Solutions 팀이 관리하는 프레임 워크.
- Agent-S : 인간처럼 컴퓨터를 사용하는 오픈 에이전트 프레임 워크.
↥ 위로 돌아갑니다
찾다
- OpenSearch GPT : SearchGpt / Perplexity Clone이지만 귀하를 위해 개인화되었습니다.
- MindSearch : 웹 검색 엔진의 LLM 기반 다중 에이전트 프레임 워크 (Perplexity.ai Pro 및 SearchGpt).
- Nanoperplexityai : perplexity.ai의 가장 간단한 오픈 소스 구현.
- 호기심 : 당혹감과 같은 사용자 경험을 구축하십시오.
↥ 위로 돌아갑니다
서적
- 대규모 언어 모델 : 이론에서 실천까지
- "큰 언어 모델"
- "Hand-on Mockup Dive in LLMS"
- "핸드 온 AI 에이전트"
- 큰 언어 모델 구축 (처음부터)
- "멀티 모달 모형"
- 생성 AI 핸드북 : 학습 리소스를위한 로드맵
- 딥 러닝 이해
- "Transformers & LLM에 대해 배우는 그림"
- 생산을위한 LLM 구축 : 프롬프트, 미세 조정 및 헝겊으로 LLM 능력 및 신뢰성 향상
- "대형 언어 모델에 대한 실용 가이드 : 응용 프로그램 실습 및 시나리오 구현"
- "실습 대형 언어 모델"
- 자연어 처리 : 큰 모델 이론 및 실습
- "직접 학습 강화 학습"
- "개발자를위한 LLM 소개"
- "기본 모델"
↥ 위로 돌아갑니다
강의
LLM 리소스 허브
- 스탠포드 CS224N : 딥 러닝을 통한 자연어 가공
- NG : 모든 사람을위한 생성 AI
- NG : LLM 시리즈 코스
- ACL 2023 튜토리얼 : 검색 기반 언어 모델 및 응용 프로그램
- LLM-Course : 로드맵과 콜랩 노트북으로 대형 언어 모델 (LLM)에 들어가는 과정.
- Microsoft : 초보자를위한 생성 AI
- 마이크로 소프트 : GPT 주
- 포옹 페이스 NLP 코스
- Tsinghua nlp liu zhiyuan 팀 큰 모델 오픈 클래스
- 스탠포드 CS25 : Transformers United V4
- 스탠포드 CS324 : 대형 언어 모델
- Princeton Cos 597G (2022 년 가을) : 큰 언어 모델 이해
- Johns Hopkins CS 601.471/671 NLP : 자체 감독 모델
- Li Hongyi Genai 코스
- OpenAi-Cookbook : OpenAI API 사용을위한 예제 및 지침.
- LLM에 대한 손잡이 : LLM, LLMOPS 및 Vector DBS에 대해 실시간 재무 고문 LLM 시스템을 설계, 교육 및 배포하여 무료로 배우십시오.
- 워털루 대학교 CS 886 : 최근 기초 모델의 고급 고급
- Mistral : Mistral을 시작합니다
- 스탠포드 CS25 : Transformers United V4
- Coursera : Chatgpt 응용 프로그램 프롬프트 프로젝트
- Langgpt : 모든 사람이 신속한 전문가가되도록 힘을 실어주십시오!
- Mistralai-Cookbook
- 생성 AI 2024 스프링 소개
- Nanogpt : Nanogpt를 처음부터 구축 할 때 Nanogpt : Video+Code 레슨을 구축하십시오.
- LLM101N : 스토리 텔러를 만들자.
- 헝겊에 대한 지식 그래프
- 처음부터 LLM (Datawhale 버전)
- 오픈 라그
- Agi로가는 길
- Andrej Karpathy- 신경 네트워크 : 영웅에 대한 제로
- 변압기의 대화식 시각화
- Andysingal/llm 코스
- LM 클래스
- Google Advanced : 개발자 학습 경로를위한 생성 AI
- 인류학 : 신속한 엔지니어링 대화 형 튜토리얼
- llmsbook
- 큰 언어 모델 에이전트
- Cohere LLM University
- LLM 및 변압기
- SMOL VISION : 축소, 최적화, 커스터마이징 최첨단 비전 모델을위한 레시피.
- 멀티 모달 래그 : 비디오와 채팅
- LLMS 인터뷰 노트
- RAG ++ : POC에서 프로덕션까지 : 고급 래그 코스.
- 웨이트 및 바이어스 AI 아카데미 : Finetuning, LLMS, 구조화 된 출력 및 더 많은 LLM 코스.
- 프롬프트 엔지니어링 및 AI 자습서 및 리소스
- 처음부터 래그 배우기 - Langchain 엔지니어의 Python AI 튜토리얼
- LLM 평가 : 완전한 과정
↥ 위로 돌아갑니다
지도 시간
- 큰 모델 응용 프로그램 개발을 배우십시오
- AI 개발자 채널
- B 스테이션 : Wulidun 티 하우스
- B 스테이션 : Cheney Muyu
- YTB : 언제든지 AI
- B 스테이션 : Qi Nini
- 프롬프트 엔지니어링 가이드
- YTB : AI 슈퍼 변태
- B 스테이션 : TechBeat 인공 지능 커뮤니티
- B 스테이션 : Huang Yihe
- B 스테이션 : 딥 러닝 자연어 처리
- LLM 시각화
- Zhihu : Raw Stone Human
- B 스테이션 : Xiao Heihei는 AI에 대해 이야기합니다
- 스테이션 B : 차량 엔지니어는 벽을 향합니다
- B 스테이션 : AI 베테랑 Wenzhe
- Colab 노트북이있는 대형 언어 모델 (LLM)
- YTB : IBM 기술
- YTB : 독서 용지 그룹을 통합하십시오
- 칩 huyen
- 얼마나 많은 vram
- 블로그 : 과학 공간 (Su Jianlin)
- YTB : 성은 정
- 블로그 : Tejaswi Kashyap
- 블로그 : Xiaosheng의 블로그
- Zhihu : YBQ
- W & B 기사
- Huggingface 블로그
- 블로그 : Gbyai
- 블로그 : Mlabonne
- LLM- 액션
- 블로그 : Lil'Log (Oponai)
↥ 위로 돌아갑니다
종이
- 헤르메스 -3- 기술 보고서
- 라마 3 모델의 무리
- Qwen 기술 보고서
- QWEN2 기술 보고서
- QWEN2-VL 기술 보고서
- DeepSeek LLM : 장기주의와 함께 오픈 소스 언어 모델을 스케일링합니다
- Deepseek-V2 : 강력하고 경제적이며 효율적인 혼합 언어 모델
- Baichuan 2 : 열린 대규모 언어 모델
- DataComp-LM : 언어 모델에 대한 차세대 교육 세트를 찾아
- Olmo : 언어 모델의 과학을 가속화합니다
- Map-Neo : 유능하고 투명한 이중 언어 대형 언어 모델 시리즈
- 중국의 작은 LLM : 중국 중심의 큰 언어 모델을 사전으로 전환합니다
- PHI-3 기술 보고서 : 휴대 전화에서 현지에서 유능한 언어 모델
- Jamba-1.5 : 하이브리드 변압기-엄마 모델
- Jamba : 하이브리드 변압기-엄마 언어 모델
- 교과서 만 있으면됩니다
- 데이터의 힘을 발휘하여 쓰나미 : 언어 모델
data
의 교육 튜닝을위한 데이터 평가 및 선택에 대한 포괄적 인 설문 조사 - Olmoe : 열린 혼합 언어 모델
- 모델 병합 용지
- Baichuan-Omni 기술 보고서
- 1.5-Pints 기술 보고서 : 몇 달이 아닌 며칠 내의 사전 여지-언어 모델은 품질 데이터에 번성합니다.
- Baichuan Alignment 기술 보고서
- Hunyuan-Large : Tencent의 520 억 활성화 매개 변수를 가진 오픈 소스 MOE 모델
- Molmo 및 Pixmo : 최첨단 멀티 모드 모델에 대한 개방형 웨이트 및 오픈 데이터
- Tülu 3 : 개방 언어 모델 사후 훈련에서 프론티어를 밀어 넣습니다
↥ 위로 돌아갑니다
팁
- LLMS로 건축 한 해에서 우리가 배운 것 (1 부)
- LLMS로 건축 한 해에서 우리가 배운 것 (파트 II)
- LLMS (Part III)로 건축 한 해에서 배운 것 : 전략
- 큰 언어 모델 (LLM)으로 쉽게 시작합니다.
- 텍스트 분류를위한 LLMS : 감독 학습 안내서
- 감독되지 않은 텍스트 분류 : 자연 언어를 LLM으로 분류합니다
- LLMS를 사용한 텍스트 분류 : 최상의 방법의 라운드 업
- LLM 가격
- 추상화로 LLM을 막습니다
- 작은 LLM 우주
- Zero-Chatgpt
- Zero-Qwen-VL
- FINETUNE-QWEN2-VL
- MPP-llava
- build_minillm_from_scratch
- 작은 LLM
- 최소화 : 26m에 불과한 작은 매개 변수 GPT를 훈련 시켰으며 추론 훈련을 유추하려면 최소 2G 그래픽 카드가 필요합니다.
- LLM 여행 : 대규모 모델과 관련된 다양한 기술, 원칙 및 응용 프로그램의 심층적 인 이해, 토론 및 구현 전용
- 지식 증류 : LLM을 합성 데이터로 가르치십시오
- 1 부 : 큰 언어 모델을 조정하는 방법
- 2 부 : 미세 조정하거나 미세 조정하지 않습니다
- 3 부 : 미세 조정 방법 : 효과적인 데이터 세트에 중점을 둡니다
- Reader-LM : HTML 청소 및 변환을위한 작은 언어 모델
- 1 년 동안 LLMS 애플리케이션 건설 경험
- LLM 교육-프레임
- Pytorch-Llama : Llama 2는 Pytorch에서 처음부터 구현되었습니다.
- TRL을 사용한 비전 언어 모델에 대한 선호도 최적화 【지원 모델】
- sfttrainer를 사용한 미세 조정 시각적 언어 모델 【Docs】
- 전문가 혼합에 대한 시각적 가이드 (MOE)
- Chatgpt와 같은 대형 언어 모델에서 역할 플레이
- 분산 교육 안내서 : 배포 된 Pytorch 교육 코드 작성 방법에 대한 모범 사례 및 안내서.
- 채팅 템플릿
- 상위 20 개 이상의 헝겊 인터뷰 질문
↥ 위로 돌아갑니다
이 프로젝트가 도움이되면 다음과 같이 인용하십시오.
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}