EgoAlpha Lab의 상황별 학습을 위한 오픈 소스 엔지니어링 가이드.
논문 | ⚡️ 놀이터 | ? 프롬프트엔지니어링 | ? ChatGPT 프롬프트 | ⛳ LLM 사용 가이드
️ Shining ️: 상황별 학습 및 신속한 엔지니어링을 위한 신선하고 매일 업데이트되는 리소스입니다. 일반 인공지능(AGI)이 다가오고 있는 지금, 이 흥미진진한 시대의 최전선에 서서 개인과 직업의 위대함을 위해 노력할 수 있도록 행동을 취하고 슈퍼 학습자가 되자.
리소스에는 다음이 포함됩니다.
?서류? : 상황 내 학습 , 프롬프트 엔지니어링 , 에이전트 및 기초 모델 에 관한 최신 논문입니다.
?운동장? : 신속한 실험을 가능하게 하는 대규모 언어 모델(LLM)입니다.
? 프롬프트 엔지니어링? : 대규모 언어 모델을 활용하기 위한 신속한 기술.
?ChatGPT 프롬프트? : 우리의 업무와 일상생활에 적용할 수 있는 예문을 제시합니다.
?LLM 사용 가이드? : LangChain을 사용하여 대규모 언어 모델을 빠르게 시작하는 방법입니다.
미래에 지구에는 두 가지 유형의 사람이 있을 가능성이 높습니다(아마도 화성에도 있지만 이는 머스크에게 문제가 됩니다).
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha는 추론에 초점을 맞춘 TrustGPT를 출시합니다. 확실하고 신뢰할 수 있는 답변을 제공하는 가장 강력한 추론 능력을 갖춘 GPT를 신뢰하세요. 여기를 클릭하거나 놀이터를 직접 방문하여 체험해 볼 수 있습니다.
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
완전한 역사 뉴스 ?
제목을 직접 클릭하면 해당 PDF 링크 위치로 이동할 수 있습니다.
모션이 주목을 받습니다: 비디오 모션 프롬프트 ( 2024.07.03 )
개인 건강 대형 언어 모델을 향하여 ( 2024.06.10 )
Husky: 다단계 추론을 위한 통합 오픈 소스 언어 에이전트 ( 2024.06.10 )
대형 언어 모델의 평생 학습을 향하여: 설문조사 ( 2024.06.10 )
멀티모달 LLM에서 토큰화의 의미론적 동등성을 향하여 ( 2024.06.07 )
LLM이 다중 모달 생성 및 편집을 만나다: 설문조사 ( 2024.05.29 )
대규모 언어 모델을 사용한 도구 학습: 설문조사 ( 2024.05.28 )
LLM이 3D 세계로 들어갈 때: 다중 모드 대형 언어 모델을 통한 3D 작업에 대한 설문 조사 및 메타 분석 ( 2024.05.16 )
LLM의 불확실성 추정 및 정량화: 간단한 감독 접근법 ( 2024.04.24 )
대형 언어 모델 기반 에이전트의 메모리 메커니즘에 관한 조사 ( 2024.04.21 )
완전한 논문 목록 ? "설문조사"를 위해?
LLaRA: 비전-언어 정책을 위한 로봇 학습 데이터 강화 ( 2024.06.28 )
LoRA 가중치에서 데이터 세트 크기 복구 ( 2024.06.27 )
2단계 가속 프롬프트 최적화 ( 2024.06.19 )
RAG에서 풍부한 매개변수까지: 언어 모델이 사실 쿼리에 대한 매개변수 정보에 대한 외부 지식을 어떻게 활용하는지 조사 ( 2024.06.18 )
VoCo-LLaMA: 대형 언어 모델을 통한 시각 압축을 향하여 ( 2024.06.18 )
LaMDA: 스펙트럼 분해된 저차원 적응을 통한 대형 모델 미세 조정 ( 2024.06.18 )
초기화가 LoRA 미세 조정 역학에 미치는 영향 ( 2024.06.12 )
다중 모드 대형 언어 모델을 위한 매개변수 효율적인 미세 조정에 관한 실증적 연구 ( 2024.06.07 )
그래프 프롬프트 학습에 대한 컨텍스트 간 백도어 공격 ( 2024.05.28 )
위안 2.0-M32: 어텐션 라우터와 전문가의 혼합 ( 2024.05.28 )
완전한 논문 목록 ? "프롬프트 디자인"을 위해?
다중 모드 대형 언어 모델을 위한 매개변수 효율적인 미세 조정에 관한 실증적 연구 ( 2024.06.07 )
Cantor: MLLM의 복합적 사고방식을 고취시키다 ( 2024.04.24 )
semEval-2024의 nicolay-r 작업 3: 감정 상태에 대한 일련의 사고와 대화에서 감정 원인 추론을 위해 Flan-T5 사용 ( 2024.04.04 )
생각의 시각화는 대형 언어 모델에서 공간 추론을 이끌어냅니다 ( 2024.04.04 )
소규모 언어 모델이 대규모 언어 모델을 더 잘 도울 수 있습니까?: LM 기반 사고 사슬 ( 2024.04.04 )
Visual CoT: 다중 모달 언어 모델에서 사고 사슬 추론의 해방 ( 2024.03.25 )
학생의 과학 형성 평가 반응을 평가하기 위한 LLM을 통한 사고 연쇄 촉진 접근 방식 ( 2024.03.21 )
NavCoT: 풀린 추론 학습을 통해 LLM 기반 비전 및 언어 탐색 강화 ( 2024.03.12 )
ERA-CoT: 개체 관계 분석을 통한 사고 사슬 개선 ( 2024.03.11 )
편향 증강 일관성 훈련은 사고 사슬의 편향된 추론을 감소시킵니다. ( 2024.03.08 )
완전한 논문 목록 ? "사고의 사슬"에 대해?
LaMDA: 스펙트럼 분해된 저차원 적응을 통한 대형 모델 미세 조정 ( 2024.06.18 )
초기화가 LoRA 미세 조정 역학에 미치는 영향 ( 2024.06.12 )
다중 모드 대형 언어 모델을 위한 매개변수 효율적인 미세 조정에 관한 실증적 연구 ( 2024.06.07 )
다중 모드 학습에서 확장된 텍스트 컨텍스트를 위한 시각적 토큰 활용 ( 2024.06.04 )
Grok 학습: 모듈러 연산 작업에서 상황 내 학습 및 기술 구성의 출현 ( 2024.06.04 )
긴 컨텍스트는 전혀 길지 않습니다: 대규모 언어 모델을 위한 장기 종속성 데이터의 전망 ( 2024.05.28 )
Multi-Space Projection과 Prompt Fusion을 통한 효율적인 Prompt Tuning ( 2024.05.19 )
MAML-en-LLM: 상황 내 학습 개선을 위한 LLM의 모델 독립적 메타 교육 ( 2024.05.19 )
상황 내 학습을 통한 대규모 언어 모델에 의한 상식 생성의 다양성 향상 ( 2024.04.25 )
상황 내 학습을 위한 더욱 강력한 무작위 기준선 ( 2024.04.19 )
완전한 논문 목록 ? "상황 내 학습"을 위해?
업로드 가능한 머신러닝을 위한 LoRA 전문가의 검색-증강 혼합 ( 2024.06.24 )
RAG 시스템 강화: 성능 및 확장성을 위한 최적화 전략 조사 ( 2024.06.04 )
적응형 적대 훈련을 통한 검색 증강 언어 모델의 잡음 견고성 향상 ( 2024.05.31 )
희소 컨텍스트 선택을 통한 검색-증강 생성 추론 가속화 ( 2024.05.25 )
DocReLM: 언어 모델을 이용한 문서 검색 마스터하기 ( 2024.05.19 )
UniRAG: 다중 모드 대형 언어 모델을 위한 범용 검색 확장 ( 2024.05.16 )
ChatHuman: 검색 증강 도구 추론을 통한 언어 기반 3D 인간 이해 ( 2024.05.07 )
이유: 공공 및 독점 LLM을 사용하여 과학 문장 검색 및 자동 인용에 대한 벤치마크 ( 2024.05.03 )
중첩 프롬프트: 검색 증강 생성 개선 및 가속화 ( 2024.04.10 )
Untangle the KNOT: 대규모 언어 모델에서 상충되는 지식과 추론 기술을 엮기 ( 2024.04.04 )
완전한 논문 목록 ? "검색 증강 생성"을 위해?
CELLO: 대형 비전 언어 모델의 인과 평가 ( 2024.06.27 )
PrExMe! 기계 번역 및 요약 평가를 위한 오픈 소스 LLM의 대규모 신속한 탐색 ( 2024.06.26 )
대형 멀티모달 모델 시대의 참조 표현 이해 평가 재검토 ( 2024.06.24 )
OR-Bench: 대규모 언어 모델에 대한 과잉 거부 벤치마크 ( 2024.05.31 )
TimeChara: 롤플레잉 대형 언어 모델의 특정 시점 캐릭터 환각 평가 ( 2024.05.28 )
미묘한 편향에는 더 미묘한 조치가 필요함: 대규모 언어 모델에서 대표성 편향과 선호도 편향을 평가하기 위한 이중 측정항목 ( 2024.05.23 )
HW-GPT-Bench: 언어 모델을 위한 하드웨어 인식 아키텍처 벤치마크 ( 2024.05.16 )
기본 시각적 네트워크 분석으로 어려움을 겪는 다중 모드 LLM: VNA 벤치마크 ( 2024.05.10 )
Vibe-Eval: 다중 모드 언어 모델의 진행 상황을 측정하기 위한 하드 평가 제품군 ( 2024.05.03 )
언어 모델의 인과 평가 ( 2024.05.01 )
완전한 논문 목록 ? "평가 및 신뢰성"을 위해?
UAV 지원 모바일 엣지 컴퓨팅 네트워크를 위한 협력적 다중 에이전트 심층 강화 학습 방법 ( 2024.07.03 )
기호 학습을 통해 에이전트 자체 진화 가능 ( 2024.06.26 )
다중 모드 에이전트에 대한 적대적 공격 ( 2024.06.18 )
DigiRL: 자율 강화 학습을 통한 실제 장치 제어 에이전트 교육 ( 2024.06.14 )
대형 언어 모델 에이전트를 사용하여 웨어러블 데이터를 건강 통찰력으로 변환 ( 2024.06.10 )
뉴로모픽 드림: 인공 에이전트의 효율적인 학습을 위한 경로 ( 2024.05.24 )
강화학습을 통해 의사결정 주체로서 대형 시각-언어 모델 미세 조정 ( 2024.05.16 )
그래프 모델링 관점에서 다중 에이전트 통신 학습 ( 2024.05.14 )
Smurfs: 도구 계획을 위한 상황 효율성을 갖춘 여러 숙련 에이전트 활용 ( 2024.05.09 )
인간과 웹 에이전트 간의 웹 작업 처리 차이 공개 ( 2024.05.07 )
완전한 논문 목록 ? "에이전트"에 대해?
InternLM-XComposer-2.5: 긴 상황별 입력 및 출력을 지원하는 다목적 대형 비전 언어 모델 ( 2024.07.03 )
LLaRA: 비전-언어 정책을 위한 로봇 학습 데이터 강화 ( 2024.06.28 )
Web2Code: 멀티모달 LLM을 위한 대규모 웹페이지-코드 데이터 세트 및 평가 프레임워크 ( 2024.06.28 )
LLaVolta: 단계적 시각적 컨텍스트 압축을 통한 효율적인 다중 모드 모델 ( 2024.06.28 )
Cambrian-1: 다중 모드 LLM의 완전 개방형 비전 중심 탐색 ( 2024.06.24 )
VoCo-LLaMA: 대형 언어 모델을 통한 시각 압축을 향하여 ( 2024.06.18 )
LLaVA-HD를 넘어서: 고해상도 대형 멀티모달 모델에 뛰어들다 ( 2024.06.12 )
다중 모드 대형 언어 모델을 위한 매개변수 효율적인 미세 조정에 관한 실증적 연구 ( 2024.06.07 )
다중 모드 학습에서 확장된 텍스트 컨텍스트를 위한 시각적 토큰 활용 ( 2024.06.04 )
DeCo: 다중 모드 대형 언어 모델의 의미 추상화에서 토큰 압축 분리 ( 2024.05.31 )
완전한 논문 목록 ? "다중 모드 프롬프트"에 대해?
IncogniText: LLM 기반 개인 속성 무작위화를 통한 개인 정보 보호 강화 조건부 텍스트 익명화 ( 2024.07.03 )
Web2Code: 멀티모달 LLM을 위한 대규모 웹페이지-코드 데이터 세트 및 평가 프레임워크 ( 2024.06.28 )
OMG-LLaVA: 이미지 수준, 객체 수준, 픽셀 수준 추론 및 이해 연결 ( 2024.06.27 )
대규모 언어 모델을 위한 적대적 검색 엔진 최적화 ( 2024.06.26 )
VideoLLM-online: 스트리밍 비디오를 위한 온라인 비디오 대형 언어 모델 ( 2024.06.17 )
숨겨진 상태를 정규화하면 LLM에 대한 일반화 가능한 보상 모델을 학습할 수 있습니다. ( 2024.06.14 )
자기회귀 모델이 확산을 능가함: 확장 가능한 이미지 생성을 위한 Llama ( 2024.06.10 )
언어 모델은 특정 인지 프로필을 에뮬레이트합니다. 예측 가능성 측정이 개인차와 어떻게 상호 작용하는지 조사 ( 2024.06.07 )
PaCE: 대규모 언어 모델을 위한 간결한 개념 엔지니어링 ( 2024.06.06 )
위안 2.0-M32: 어텐션 라우터와 전문가의 혼합 ( 2024.05.28 )
완전한 논문 목록 ? "즉시 신청"을 위해?
정리라마: 범용 LLM을 Lean4 전문가로 전환 ( 2024.07.03 )
멀티뷰 학습을 통한 사람 재식별을 위한 보행자 3차원 형상 이해 ( 2024.07.01 )
LLM의 암시적 어휘 항목의 발자국으로서의 토큰 삭제 ( 2024.06.28 )
OMG-LLaVA: 이미지 수준, 객체 수준, 픽셀 수준 추론 및 이해 연결 ( 2024.06.27 )
모델 편집의 근본적인 문제: LLM에서 합리적 신념 개정이 어떻게 작동해야 합니까? ( 2024.06.27 )
상황 인식 토큰화를 통한 효율적인 세계 모델 ( 2024.06.27 )
LLM의 놀라운 견고성: 추론 단계? ( 2024.06.27 )
ResumeAtlas: 대규모 데이터 세트 및 대규모 언어 모델을 사용한 이력서 분류 재검토 ( 2024.06.26 )
AITTI: 텍스트-이미지 생성을 위한 적응형 포괄 토큰 학습 ( 2024.06.18 )
인코더 없는 비전-언어 모델 공개 ( 2024.06.17 )
완전한 논문 목록 ? "파운데이션 모델"에 대해?
LLM(대형 언어 모델)은 우리 시대의 발전을 형성하는 혁신적인 기술이 되고 있습니다. 개발자는 LLM을 구축함으로써 이전에는 상상 속에서만 가능했던 애플리케이션을 만들 수 있습니다. 그러나 이러한 LLM을 사용하는 데는 종종 특정 기술적 장벽이 따르며, 입문 단계에서도 사람들은 최첨단 기술에 겁을 먹을 수 있습니다. 다음과 같은 질문이 있습니까?
컴퓨터 과학 전문가뿐만 아니라 모든 청중이 접근할 수 있는 튜토리얼이 있다면, 짧은 시간 내에 빠르게 시작하고 운영할 수 있도록 자세하고 포괄적인 지침을 제공하여 궁극적으로 LLM을 유연하게 사용할 수 있다는 목표를 달성할 수 있을 것입니다. 그리고 그들이 구상하는 프로그램을 창의적으로 구축합니다. 그리고 이제 당신만을 위한 가장 상세하고 포괄적인 Langchain 초보자 가이드가 공식 langchain 웹사이트에서 제공되었지만 내용에 대한 추가 조정이 포함되어 있으며 가장 자세하고 주석이 달린 코드 예제가 포함되어 있으며 코드를 한 줄씩, 문장별로 가르치고 있습니다. 모든 청중.
여기를 클릭하시겠습니까? LLM을 시작하는 방법을 간략하게 살펴보세요.
이 저장소는 EgoAlpha Lab에서 관리합니다. [email protected]
을 통해 질문과 토론을 환영합니다.
우리는 학계 및 산업계의 친구들과 토론에 참여하고 신속한 엔지니어링 및 상황 내 학습의 최신 개발을 함께 탐구할 의향이 있습니다.
이 레포에 참여한 EgoAlpha Lab의 박사과정 학생들과 다른 직원들에게 감사드립니다. 우리는 후속 기간에 프로젝트를 개선하고 이 커뮤니티를 잘 유지할 것입니다. 또한 관련 자료의 작성자에게도 진심으로 감사의 말씀을 전하고 싶습니다. 여러분의 노력은 우리의 시야를 넓혔고 우리가 더 멋진 세상을 인식할 수 있게 해주었습니다.