마법의 프롬프트 프로젝트?♂️
이 저장소에는 GPT(Generative Pretrained Transformer), ChatGPT, PaLM 등에 중점을 두고 직접 선별한 Prompt 엔지니어링 리소스가 포함되어 있습니다.
목차
- 종이
- 도구 및 코드
- API
- 데이터 세트
- 모델
- AI 콘텐츠 탐지기
- 기르다
- 동영상
- 서적
- 지역 사회
- 기여하는 방법
종이
?
신속한 엔지니어링 기술 :
- 프롬프트 패턴 디렉터리를 사용하여 ChatGPT 프롬프트 프로젝트를 향상시키는 방법 [2023](Arxiv)
- 신속한 미세 조정 및 발견을 위한 그라데이션 기반 이산 최적화[2023](Arxiv). - 일반 팁: 대규모 언어 모델을 위한 사고 사슬 생성 데모[2023](Arxiv)
- 점진적 프롬프트: 언어 모델의 지속적인 학습 [2023](Arxiv)
- 일괄 처리 팁: LLM API를 통한 효율적인 추론 [2023](Arxiv)
- 복잡한 문제를 해결하기 위한 지속적인 프롬프트 [2022](Arxiv)
- 구조적 팁: 상황별 학습을 1,000개의 예시로 확장 [2022](Arxiv)
- 대규모 언어 모델은 인간 수준의 프롬프트 엔지니어입니다 [2022] (Arxiv)
- 무엇이든 물어보세요: 언어 모델을 유도하기 위한 간단한 전략 [2022] (Arxiv)
- GPT-3의 신뢰성을 위한 팁 [2022] (Arxiv)
- 주요 팁: 복잡한 작업을 해결하기 위한 모듈식 접근 방식 [2022](Arxiv)
- PromptChainer: 시각적 프로그래밍을 통해 대규모 언어 모델 프롬프트 연결 [2022](Arxiv)
- 확산 모델에서 힌트 엔지니어링 조사 [2022] (Arxiv)
- 작업 표시: 언어 모델을 사용한 중간 계산의 초안 [2021] (Arxiv)
- GPTk 재구성을 위한 교육 팁 [2021](Arxiv)
- 훌륭하게 정렬된 단서와 그 발견: 작은 샘플 단서 순서 민감도 극복 [2021] (Arxiv)
- 매개변수의 효율적이고 신속한 조정을 위한 규모의 힘 [2021] (Arxiv)
- 대규모 언어 모델 프로그래밍: 몇 번의 샷 패러다임을 넘어 [2021] (Arxiv) - 접두사 조정: 생성을 위한 연속 힌트 최적화 [2021] (Arxiv)
추론 및 상황별 학습 :
- 언어 모델의 다중 모드 사고 연쇄 추론 [2023] (Arxiv)
- 다시 생각해 보면, 우리는 한 단계씩 생각하는 길을 택하지 않습니다! 제로샷 추론의 편향과 유해성 [2022] (Arxiv)
- ReAct: 언어 모델에서 추론과 행동의 시너지 효과 [2022] (Arxiv)
- 언어 모델은 탐욕스러운 추론자입니다: 사고 사슬의 체계적인 형식 분석 [2022] (Arxiv)
- 추론을 위한 언어 모델 개선에 대한 진행 [2022] (Arxiv)
- 대규모 언어 모델은 제로샷 추론기입니다 [2022] (Arxiv)
- 프로그램 실행자처럼 추론하기 [2022] (Arxiv)
- 자기 일관성은 언어 모델의 사고 사슬 추론을 향상시킵니다. [2022] (Arxiv)
- 시연의 역할 재고하기: 상황에 맞는 학습을 작동하게 만드는 것은 무엇입니까? [2022] (Arxiv)
- 설명하는 방법 배우기: 사고 사슬을 통한 과학적 Q&A를 위한 다중 모드 추론 [2022] (Arxiv)
- Thought Chain은 대규모 언어 모델에서 추론을 유도하도록 유도합니다[2021](Arxiv)
- 상식 추론을 위한 지식 프롬프트 생성 [2021] (Arxiv)
- BERTese: BERT [2021](Acl)과 통신하는 방법 배우기
언어 모델 평가 및 개선 :
- 대규모 언어 모델은 관련 없는 컨텍스트로부터 간섭을 받기 쉽습니다. [2023] (Arxiv)
- 언어 모델의 내부 지식 기반 크롤링 [2023](Arxiv) - 언어 모델 동작 발견 방법: 모델 작성 평가 [2022](Arxiv) 원본 링크
- 사용 전 보정: 언어 모델의 Few-Shot 성능 개선 [2021] (Arxiv) 원본 링크
언어 모델의 적용 :
- 다중 모달 악성 밈 분류를 위한 팁 [2023] (Arxiv) 원본 링크
- 사회적 대화 합성을 위한 프롬프트 언어 모델 [2023] (Arxiv) 원본 링크
- 통제된 공감 대화 생성을 위한 상식 인식 프롬프트 [2023](Arxiv) 원본 링크
- 프로그램 지원 언어 모델 [2023] (Arxiv) 원본 링크
- 다국어 법적 판단 예측을 위한 법적 프롬프트 작성 [2023] (Arxiv) 원본 링크
- 자연어를 활용한 CS1 문제 해결을 위한 프롬프트 엔지니어링 연구 [2022] (Arxiv) 원본 링크
- 사전 학습된 언어 모델을 사용한 플롯 생성 [2022](Acl) 원본 링크
- 자동 프롬프트: 자동으로 생성된 프롬프트를 사용하여 언어 모델에서 지식을 도출합니다. [2020] (Arxiv) 원본 링크
위협 탐지 및 대응 예시 :
- 헌법적 인공지능: AI 피드백을 통해 무해함 [2022] (Arxiv) 원본 링크
- 이전 팁 무시: 언어 모델에 대한 공격 기법 [2022](Arxiv) 원본 링크
- 기계 생성 텍스트: 위협 모델 및 탐지 방법에 대한 포괄적인 조사 [2022](Arxiv) 원본 링크
- 손으로 만든 적대적 예제를 통해 사전 훈련된 언어 모델의 민감성 평가 [2022](Arxiv) 원본 링크
- 생성된 힌트를 사용한 독성 감지 [2022](Arxiv) 원본 링크. - 언어 모델이 무엇을 알고 있는지 어떻게 알 수 있나요? [2020] (미트)
퓨샷 학습 및 성능 최적화 :
- 프롬프타게이터: 8개 예제에서 소수의 밀도 검색 [2022] (Arxiv)
- 텍스트 추론의 해석적 비신뢰성에 대한 Few-Shot 프롬프트 [2022] (Arxiv)
- 사전 훈련된 언어 모델을 더 나은 소수 학습자로 만들기 [2021](Acl)
- 언어 모델은 소수 학습자입니다. [2020] (Arxiv)
텍스트를 이미지로 생성 :
- 텍스트-이미지 생성을 위한 힌트 수정자 분류 [2022](Arxiv)
- 신속한 엔지니어링 텍스트-이미지 생성 모델을 위한 설계 지침[2021](Arxiv)
- 잠재 확산 모델을 이용한 고해상도 이미지 합성 [2021] (Arxiv)
- DALL·E: 텍스트에서 이미지 생성 [2021] (Arxiv)
텍스트를 음악으로 변환/사운드 생성 :
- MusicLM: 텍스트에서 음악 생성 [2023](Arxiv)
- ERNIE-Music: 확산 모델을 사용한 텍스트-파동 음악 생성 [2023] (Arxiv)
- Noise2Music: 확산 모델을 사용한 텍스트 변조 음악 생성 [2023)(Arxiv)
- AudioLM: 언어 모델링을 기반으로 한 오디오 생성 방법 [2023] (Arxiv)
- Make-An-Audio: 향상된 큐 확산 모델을 사용한 텍스트-오디오 생성 [2023](Arxiv)
텍스트에서 비디오 생성 :
- Dreamix: 범용 비디오 편집기를 위한 비디오 확산 모델 [2023] (Arxiv). - 비디오 튜닝: 텍스트-비디오 생성을 위한 이미지 확산 모델의 원샷 튜닝 [2022] (Arxiv)
- 음악에 대한 소음: 확산 모델을 기반으로 한 텍스트 조건부 음악 생성 [2023] (Arxiv)
- 오디오 LM: 오디오의 언어 모델 생성 방법 [2023] (Arxiv)
개요 :
- 조종 부조종사 및 코덱스: 뜨거운 온도, 차가운 프롬프트 또는 흑마술? [2022](Arxiv)
도구 및 코드
?
이름 | 설명하다 | 링크 |
---|
GPT 지수 | GPT Index는 LLM을 통해 대규모 외부 지식 기반 작업을 더 쉽게 할 수 있도록 설계된 일련의 데이터 구조로 구성된 프로젝트입니다. | [깃허브] |
프롬프트 | LLM을 사용하여 NLP 문제를 해결하고 Promptify를 사용하여 GPT 및 PaLM과 같은 인기 있는 생성 모델에 대한 다양한 NLP 작업 프롬프트를 쉽게 생성할 수 있습니다. | [깃허브] |
더 나은 프롬프트 | LLM 프롬프트를 프로덕션으로 푸시하기 전에 테스트 도구 모음을 테스트하세요. | [깃허브] |
대화형 컴포지션 탐색기x | ICE는 Python 라이브러리 및 언어 모델 프로그램을 위한 추적 시각화 도구입니다. | [깃허브] |
LangChainx | LLM을 조합하여 사용하여 애플리케이션 구축 | [깃허브] |
오픈프롬프트 | 신속한 학습을 위한 오픈 소스 프레임워크 | [깃허브] |
프롬프트 엔진 | 이 저장소에는 LLM(대형 언어 모델) 프롬프트를 생성하고 유지 관리하기 위한 NPM 유틸리티 라이브러리가 포함되어 있습니다. | [깃허브] |
프롬프트 AI | GPT-3를 위한 고급 작업장 | [깃허브] |
프롬프트 소스 | PromptSource는 자연어 프롬프트를 생성, 공유 및 사용하기 위한 도구 키트입니다. | [깃허브] |
생각의 근원 | 기계가 과학에 대해 생각할 수 있는 프레임워크 | [깃허브] |
API
이름 | 설명하다 | URL | 유료 또는 오픈 소스 |
---|
오픈AI | 자연어 작업을 위한 GPT-n, 자연어를 코드로 변환하는 Codex, 원시 이미지 생성 및 편집을 위한 DALL·E입니다. | [오픈AI] | 지불하다 |
코히어AI | Cohere는 API를 통해 고급 대규모 언어 모델 및 자연어 처리 도구에 대한 액세스를 제공합니다. | [코히레AI] | 지불하다 |
인류학 | 곧 온다 | [인류] | 지불하다 |
FLAN-T5XXL | 곧 온다 | [허긴페이스] | 오픈 소스 |
데이터 세트
?
이름 | 설명하다 | URL |
---|
P3(공개 프롬프트 풀) | P3(Public Pool of Prompts)은 다양한 NLP 작업이 포함된 프롬프트 영어 데이터 세트 모음입니다. | [껴안는 얼굴] |
멋진 채팅GPT 프롬프트 | 이 저장소에는 ChatGPT를 더 잘 사용하기 위한 ChatGPT 프롬프트 큐레이션이 포함되어 있습니다. | [깃허브] |
?
이름 | 설명하다 | 링크 |
---|
채팅GPT | 채팅GPT | [오픈AI] |
사본 | Codex 모델은 GPT-3 모델의 후속 모델이며 코드를 이해하고 생성할 수 있습니다. 훈련 데이터에는 자연어와 GitHub의 수십억 줄의 공개 코드가 포함되어 있습니다. | [깃허브] |
꽃 | BigScience 대규모 오픈 사이언스 오픈 액세스 다국어 언어 모델 | [껴안는 얼굴] |
페이스북 LLM | OPT-175B는 Meta-trained GPT-3 동등 모델입니다. 1,750억 개의 매개변수를 포함하여 현재 사용 가능한 가장 큰 사전 학습된 언어 모델입니다. | [알파] |
GPT-NeoX | 훈련된 200억 매개변수 자동 회귀 언어 모델인 GPT-NeoX-20B | [껴안는 얼굴] |
FLAN-T5XXL | Flan-T5는 명령 조정 모델입니다. 즉, 명령이 신호의 일부로 주어졌을 때 제로 발사 동작을 나타냅니다. | [허깅페이스/구글] |
XLM-RoBERTa-XL | XLM-RoBERTa-XL 모델은 100개 언어가 포함된 2.5TB의 필터링된 CommonCrawl 데이터로 사전 학습되었습니다. | [껴안는 얼굴] |
GPT-J | Pile 데이터 세트에서 훈련된 GPT-2와 유사한 인과 언어 모델입니다. | [껴안는 얼굴] |
| 메시지 작성 | 온라인 포럼(reddit)에서 스크랩한 300K 의 대규모 데이터 세트 | MidJourney 의 공개 Discord 서버에서 스크랩한 텍스트 메시지 || rlhf-pytorch | PaLM 아키텍처에서 RLHF(인간 피드백을 통한 강화 학습) 구현. 기본적으로 ChatGPT, PaLM 추가 | GPT-Neo | 모델 병렬성을 위해 그리드 텐서 라이브러리를 사용하는 GPT-2 및 GPT-3 유사 모델 구현. | [Github] | LaMDA-rlhf-pytorch | PyTorch를 사용한 Google의 사전 학습된 오픈 소스 구현입니다. ChatGPT와 유사한 RLHF를 추가했습니다. | [Github] | RLHF | 인간 피드백을 통한 강화 학습 구현 [ GLM -130B] |
AI 콘텐츠 탐지기
?
이름 | 설명하다 | URL |
---|
AI 텍스트 분류기 | AI 텍스트 분류기는 텍스트가 ChatGPT와 같은 다양한 소스에서 AI로 생성될 가능성을 예측할 수 있는 미세 조정된 GPT 모델입니다. | [오픈AI] |
GPT-2 출력 감지기 | ?/Transformers를 기반으로 구현된 RoBERTa의 온라인 데모입니다. | [껴안는 얼굴] |
Openai 감지기 | AI가 작성한 텍스트를 표시하기 위한 AI 분류자(OpenAI Detector Python 래퍼) | [깃허브] |
지도 시간
프롬프트 프로젝트 소개
- 프롬프트 엔지니어링 101 - 소개 및 리소스
- 프롬프트 엔지니어링 101". - SudalaiRajkumar의 프롬프트 엔지니어링 가이드
생성 언어 모델에 대한 초보자 가이드
- 생성 언어 모델에 대한 초보자 친화적인 가이드 - LaMBDA Guide
- Cohere 기반 생성 AI: 1부 - 모델 팁
프롬프트 엔지니어링 모범 사례
- OpenAI API 프롬프트 엔지니어링 모범 사례
- 좋은 프롬프트를 작성하는 방법
완전한 프롬프트 프로젝트 가이드
- 대규모 언어 모델 프롬프트 프로젝트에 대한 전체 소개
- 프롬프트 엔지니어링 가이드: 최상의 프롬프트를 디자인하는 방법
신속한 엔지니어링의 기술적 측면
- GPT-3 프롬프트 엔지니어링의 3대 원칙
- ChatGPT 프롬프트 프로젝트를 위한 공통 프레임워크
- 프롬프트 프로그래밍 방법
신속한 프로젝트 리소스
- 멋진 채팅GPT 팁
- 최고의 100+ 안정적인 확산 프롬프트
- DALLE 프롬프트 북
- OpenAI 요리책
- 마이크로소프트의 프롬프트 프로젝트
동영상
?- ChatGPT 프롬프트 프로젝트의 고급 버전
- ChatGPT: 초보자를 위한 5가지 즉각적인 엔지니어링 팁
- CMU 고급 자연어 처리 2022: 프롬프트
- 프롬프트 엔지니어링 - 새로운 직업이 있나요?
- ChatGPT 가이드: 더 나은 프롬프트를 사용하여 결과를 10배 향상시키세요
- 언어 모델 및 프롬프트 엔지니어링: NLP의 프롬프트 방법에 대한 체계적인 조사
- 프롬프트 엔지니어링 101: 자동 완성, 제로 샘플, 단일 샘플 및 소수 샘플 프롬프트
지역 사회
?
- OpenAI 디스코드
- 프롬프트랩 디스코드
- 프롬프트 배우기
- r/ChatGPT 디스코드
- MidJourney 디스코드
기여하는 방법
우리는 이 목록에 대한 기여를 환영합니다! 사실, 이것이 제가 이 앱을 만든 주된 이유입니다. 즉, LLM(대형 언어 모델) 및 Prompt 엔지니어링 분야의 새롭고 흥미로운 개발에 대한 최신 정보를 얻기 위해 사람들이 변경 사항을 구독하도록 장려하고 기여를 장려하기 위한 것입니다.
기여하기 전에 잠시 시간을 내어 기여 지침을 검토하시기 바랍니다. 이 지침은 귀하의 기여가 우리의 목표와 일치하고 품질 및 관련성 표준을 충족하는지 확인하는 데 도움이 됩니다. 이 프로젝트에 참여하는 데 관심을 가져주셔서 감사합니다!
이미지 출처: docs.cohere.ai