MachineLearning QandAI book
1.0.0
Sebastian Raschka가 쓴 기계 학습 Q 및 AI 보충 자료.
책에 대한 질문은 토론을 이용해주세요!
기계 학습과 AI의 기본 사항을 파악하고 지속적인 지식 격차를 해결할 수 있는 재미있는 방법을 원한다면 이 책이 적합합니다. 짧은 장으로 구성된 이 속사포 시리즈는 현장의 30가지 필수 질문을 다루고 업무에 구현할 수 있는 최신 기술에 대한 최신 정보를 얻는 데 도움이 됩니다.
기계 학습 Q 및 AI 의 각 장은 새로운 개념을 설명하는 다이어그램과 추가 읽기를 위한 충분한 참조를 포함하여 중심 질문을 묻고 답합니다.
이 책은 Leanpub에서 공개되었던 Machine Learning Q와 AI를 완전히 편집하고 개정한 버전입니다.
“과장하지 않고 현재 현장에서 최고의 기계 학습 교육자인 Sebastian보다 더 나은 가이드를 요구할 수는 없습니다. 각 페이지에서 Sebastian은 자신의 광범위한 지식을 전달할 뿐만 아니라 진정한 전문성을 나타내는 열정과 호기심도 공유합니다.”
-- Chris Albon, Wikimedia Foundation 기계 학습 이사
제목 | URL 링크 | 보충 코드 |
---|---|---|
1 | 임베딩, 표현 및 잠재 공간 | |
2 | 자기 지도 학습 | |
3 | 퓨샷 학습 | |
4 | 복권 가설 | |
5 | 데이터의 과적합 줄이기 | |
6 | 모델 수정을 통한 과적합 감소 | |
7 | 다중 GPU 훈련 패러다임 | |
8 | 트랜스포머 성공의 열쇠 | |
9 | 생성적 AI 모델 | |
10 | 무작위성의 근원 | 데이터 샘플링.ipynb dropout.ipynb 무작위 가중치.ipynb |
2부: 컴퓨터 비전 | ||
11 | 매개변수 수 계산 | 전환 크기.ipynb |
12 | 완전 연결 레이어와 컨벌루션 레이어의 동등성 | fc-cnn-equivalence.ipynb |
13 | Vision Transformer용 대형 훈련 세트 | |
3부: 자연어 처리 | ||
14 | 분포 가설 | |
15 | 텍스트에 대한 데이터 확대 | 역번역.ipynb 소음 주입.ipynb 문장 순서-shuffling.ipynb 동의어-replacement.ipynb 합성 데이터.ipynb 단어 삭제.ipynb 단어 위치 교환.ipynb |
16 | "자기"-주의 | |
17 | 인코더 및 디코더 스타일 변압기 | |
18 | 사전 훈련된 변환기 사용 및 미세 조정 | |
19 | 생성적 대형 언어 모델 평가 | BERTScore.ipynb 블루.ipynb 당혹스러움.ipynb rouge.ipynb |
4부: 생산 및 배포 | ||
20 | 무상태 및 상태 저장 훈련 | |
21 | 데이터 중심 AI | |
22 | 추론 속도 향상 | |
23 | 데이터 배포 변화 | |
5부: 예측 성능 및 모델 평가 | ||
24 | 포아송 및 순서 회귀 | |
25 | 신뢰구간 | 네 가지 방법.ipynb 4가지 방법-vs-true-value.ipynb |
26 | 신뢰 구간과 등각 예측 | 컨포멀_예측.ipynb |
27 | 적절한 측정항목 | |
28 | K-폴드 교차 검증의 K | |
29 | 훈련 및 테스트 세트 불일치 | |
30 | 제한된 레이블이 지정된 데이터 |