LLM을 사용한 생성적 AI
LLM(대형 언어 모델을 사용하는 생성적 AI)에서는 생성적 AI의 작동 방식과 이를 실제 애플리케이션에 배포하는 방법에 대한 기본 사항을 배웁니다.
이 과정을 수강하면 다음 내용을 배울 수 있습니다.
- 데이터 수집 및 모델 선택부터 성능 평가 및 배포에 이르기까지 일반적인 LLM 기반 생성적 AI 수명주기의 주요 단계를 설명하여 생성적 AI를 깊이 이해합니다.
- LLM을 구동하는 변환기 아키텍처, 훈련 방법, 미세 조정을 통해 LLM을 다양한 특정 사용 사례에 적용할 수 있는 방법을 자세히 설명합니다.
- 경험적 확장 법칙을 사용하여 데이터 세트 크기, 컴퓨팅 예산 및 추론 요구 사항 전반에 걸쳐 모델의 목적 함수를 최적화합니다.
- 최첨단 교육, 튜닝, 추론, 도구 및 배포 방법을 적용하여 프로젝트의 특정 제약 조건 내에서 모델 성능을 극대화합니다.
- 업계 연구원 및 실무자들의 이야기를 듣고 생성적 AI가 비즈니스에 창출하는 과제와 기회에 대해 논의합니다.
LLM의 작동 방식과 LLM 교육 및 배포의 모범 사례에 대한 기본 지식을 갖춘 개발자는 회사를 위해 올바른 결정을 내리고 작동하는 프로토타입을 더 빠르게 구축할 수 있습니다. 이 과정은 학습자가 이 흥미로운 신기술을 가장 잘 활용하는 방법에 대한 실질적인 직관을 구축할 수 있도록 지원합니다.
1주차
생성적 AI 사용 사례, 프로젝트 수명 주기, 모델 사전 훈련
학습 목표
- 모델 사전 학습과 지속적인 사전 학습과 미세 조정의 가치에 대해 논의합니다.
- Generative AI라는 용어를 정의하고, 대규모 언어 모델을 제시하고, LLM을 지원하는 변환기 아키텍처를 설명합니다.
- 일반적인 LLM 기반 생성 AI 모델 수명 주기의 단계를 설명하고 모델 수명 주기의 각 단계에서 결정을 내리는 제약 요인에 대해 논의합니다.
- 모델 사전 훈련 중 계산 문제에 대해 논의하고 메모리 공간을 효율적으로 줄이는 방법 결정
- 확장 법칙이라는 용어를 정의하고 교육 데이터 세트 크기, 컴퓨팅 예산, 추론 요구 사항 및 기타 요소와 관련하여 LLM에 대해 발견된 법칙을 설명합니다.
랩 1 - 생성 AI 사용 사례: 대화 요약
1주차 퀴즈
2주차
대규모 언어 모델 미세 조정 및 평가
학습 목표
- 프롬프트 데이터세트를 사용하여 지침을 미세 조정하면 하나 이상의 작업에서 성능이 어떻게 향상될 수 있는지 설명
- 치명적인 망각을 정의하고 이를 극복하는 데 사용할 수 있는 기술을 설명합니다.
- 매개변수 효율적 미세 조정(PEFT)이라는 용어 정의
- PEFT가 어떻게 계산 비용을 줄이고 치명적인 망각을 극복하는지 설명
- 프롬프트 데이터 세트를 사용하여 지침을 미세 조정하면 하나 이상의 LLM 성능을 향상시킬 수 있는 방법을 설명합니다.
랩 2 - 대화 요약을 위한 생성 AI 모델 미세 조정
2주차 퀴즈
3주차
강화 학습 및 LLM 기반 애플리케이션
학습 목표
- RLHF가 인간 피드백을 사용하여 대규모 언어 모델의 성능과 정렬을 개선하는 방법을 설명합니다.
- 인간 라벨러로부터 수집한 데이터를 사용하여 RLHF에 대한 보상 모델을 교육하는 방법을 설명합니다.
- 일련의 사고방식을 정의하고 이것이 LLM의 추론 및 계획 능력을 향상시키는 데 어떻게 사용될 수 있는지 설명합니다.
- 지식 부족으로 인해 LLM이 직면한 문제에 대해 논의하고 정보 검색 및 확대 기술이 이러한 문제를 어떻게 극복할 수 있는지 설명합니다.
랩 3 - 강화 학습을 통해 FLAN-T5를 미세 조정하여 더욱 긍정적인 요약 생성
3주차 퀴즈