GPT-J는 EleutherAI에서 OpenAI의 GPT-3에 대한 오픈 소스 대안입니다. 누구나 다운로드할 수 있는 GPT-J는 질문 답변, 감정 분석, 명명된 엔터티 인식을 포함한 다양한 NLP 작업에서 대규모 모델뿐만 아니라 수행하도록 성공적으로 미세 조정할 수 있습니다.
기계 지능을 가속화하는 완전히 새로운 종류의 대규모 병렬 프로세서인 Graphcore의 IPU(지능 처리 장치)를 사용하여 Paperspace에서 직접 GPT-J를 실행해 보세요. Paperspace의 클라우드에서 필요에 따라 고급의 비용 효율적인 IPU 컴퓨팅에 액세스하여 GPT-J와 같은 AI 모델을 구축, 미세 조정 및 배포할 수 있습니다.
공책 | 뼈대 | 유형 | 무료로 사용해 보세요 |
---|---|---|---|
GPT-J를 사용한 IPU의 텍스트 포함 - 미세 조정 | 포옹하는 얼굴 | 미세 조정 | |
GPT-J 6B를 사용한 텍스트 생성 | 포옹하는 얼굴 | 추론 | |
IPU에서 4비트 가중치 양자화를 사용하는 GPT-J로 더 빠른 텍스트 생성 | 포옹하는 얼굴 | 추론 |
GPT-J를 사용한 IPU의 텍스트 수반 - 미세 조정 노트북에서는 Paperspace의 16-IPU 시스템에서 실행되는 사전 훈련된 GPT-J 모델을 미세 조정하는 방법을 보여줍니다. GLUE MNLI 데이터 세트에서 텍스트 포함용 GPT-J를 미세 조정하여 SOTA 성능에 도달하는 동시에 더 큰 사촌보다 훨씬 더 비용 효율적일 수 있는 방법을 설명합니다.
GPT-J 6B 노트북을 사용한 텍스트 생성 에서는 이 모델 구현을 사용하여 Graphcore IPU에서 GPT-J를 실행하는 것이 얼마나 쉬운지 보여줍니다. 모델 가중치의 허브 체크포인트입니다.
IPU 노트북에서 4비트 가중치 양자화를 사용하는 GPT-J를 통한 더 빠른 텍스트 생성 에서는 그룹 양자화를 사용하여 미세 조정 없이 모델 매개변수를 4비트로 압축하고, 4배 적은 메모리를 사용하고 GPT에서 추론 속도를 높이는 방법을 보여줍니다. J를 ~1.5x로 늘립니다.
IPU에서 GPT-J 사용에 대해 더 자세히 알아보거나 전문가와 상담하려면 언제든지 문의해 주세요.
성장하는 커뮤니티에 참여하여 AI 전문가, IPU 개발자 및 연구원과 교류하세요. 최신 IPU 뉴스를 듣고 최신 모델을 만나보세요.
이 저장소의 콘텐츠는 MIT 라이센스 조건에 따라 제공됩니다. 자세한 내용은 포함된 LICENSE 파일을 참조하세요.