파이프 라인 용으로 제작 된 명령 줄의 AI.
대형 언어 모델 (LLM) 기반 AI는 명령 출력을 수집하고 Markdown, JSON 및 기타 텍스트 기반 형식의 형식을 수집하는 데 유용합니다. Mods는 명령 줄에 AI의 뿌리를 추가하고 파이프 라인을 인위적으로 지능적으로 만들 수있는 도구입니다.
LLMS가 LocalAI를 통해 로컬로 실행하는 것과 잘 작동합니다. OpenAi, Cohere, Groq 또는 Azure Openai를 사용할 수도 있습니다.
패키지 관리자 사용 :
# MacOS 또는 LinuxBrew 설치 Charmbracelet/Tap/Mods# Windows (Winget 포함) Winget winget charmbracelet.Mods# Arch Linux (BTW) yay -s mods# nixnix -shell -p mods
Sudo mkdir -p/etc/apt/keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg ---dearmor -o /etc/apt/keyrings/charm.gpgecho "deb [signed-by =/etc/chyyrings/charm.gpg] https://repo.charm.sh/apt/ * *" | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt install mods
echo '[charm] name = charmbaseurl = https : //repo.charm.sh/yum/enabled=1gpgcheck=1gpgkey=https : //repo.charm.sh/yum/gpg.key'| sudo tee /etc/yum.repos.d/charm.repo Sudo Yum 설치 개조
또는 다운로드 :
패키지는 데비안 및 RPM 형식으로 제공됩니다
Linux, MacOS 및 Windows에는 Binaries를 사용할 수 있습니다
또는 go
사용하여 설치하십시오.
github.com/charmbracelet/mods@latest를 설치하십시오
모든 패키지 및 아카이브에는 Bash, Zsh, Fish 및 PowerShell에 대한 사전 생성 완료 파일이 제공됩니다.
소스에서 구축 한 경우 다음과 같이 생성 할 수 있습니다.
모드 완료 bash -h 모드 완료 zsh -h 모드 완성 물고기 -H 모드 완료 PowerShell -H
패키지를 사용하는 경우 (홈브류, Debs 등) 쉘이 올바르게 구성되면 완료를 자동으로 설정해야합니다.
모드는 표준을 읽고 mods
인수에 제공되는 프롬프트로 Prefacing을 통해 작동합니다. 입력 텍스트를 LLM으로 보내고 결과를 인쇄하여 선택적으로 LLM에 응답을 Markdown으로 포맷하도록 요청합니다. 이것은 당신에게 명령의 출력을 "질문"하는 방법을 제공합니다. 모드는 또한 표준 IN 또는 인수가 개별적으로 제공되는 인수에서 작동합니다.
예제와 모든 기능의 목록을 확인하십시오.
모드는 OpenAI 호환 엔드 포인트와 함께 작동합니다. 기본적으로 MODS는 OpenAI의 공식 API 및 포트 8080에서 실행되는 로컬 AAI 설치를 지원하도록 구성되어 있습니다. mods --settings
실행하여 설정 파일에서 추가 엔드 포인트를 구성 할 수 있습니다.
대화는 기본적으로 로컬로 저장됩니다. 각 대화에는 SHA-1 식별자와 제목이 있습니다 (예 : git
!).
자세한 내용은 ./features.md
를 확인하십시오.
-m
, --model
: 사용할 큰 언어 모델을 지정하십시오.
-f
, --format
: LLM에 주어진 형식으로 응답을 포맷하도록 요청하십시오.
--format-as
: 출력에 대한 형식을 지정합니다 ( --format
와 함께 사용).
-P
, --prompt
: 프롬프트에는 stdin과 args가 포함되어야합니다.
-p
, --prompt-args
: 프롬프트는 args 만 포함해야합니다.
-q
, --quiet
: 표준 ERR에 대한 출력 오류 만.
-r
, --raw
: 구문 강조 표시없이 원시 응답을 인쇄합니다.
--settings
: 열기 설정.
-x
, --http-proxy
: http 프록시를 사용하여 API 엔드 포인트에 연결하십시오.
--max-retries
: 최대 회수 수.
--max-tokens
: 응답 할 최대 토큰을 지정하십시오.
--no-limit
: 응답 토큰을 제한하지 마십시오.
--role
: 사용할 역할을 지정합니다 (사용자 정의 역할 참조).
--word-wrap
: 너비의 랩 출력 (기본값 ~ 80)
--reset-settings
: 설정을 기본값으로 복원합니다.
-t
, --title
: 대화 제목을 설정하십시오.
-l
, --list
: 목록 저장된 대화.
-c
, --continue
: 마지막 응답 또는 특정 제목 또는 SHA-1에서 계속하십시오.
-C
, --continue-last
마지막 대화를 계속하십시오.
-s
, --show
: 주어진 제목 또는 SHA-1에 대한 저장된 대화를 보여줍니다.
-S
, --show-last
: 이전 대화를 보여줍니다.
--delete-older-than=<duration>
: 주어진 기간 ( 10d
, 1mo
)보다 오래된 대화를 삭제합니다.
--delete
: 주어진 제목 또는 SHA-1에 대한 저장된 대화를 삭제합니다.
--no-cache
: 대화를 저장하지 마십시오.
--fanciness
: 환상의 수준.
--temp
: 샘플링 온도.
--topp
: 상단 P 값.
--topk
: 상단 K 값.
역할을 통해 시스템 프롬프트를 설정할 수 있습니다. 다음은 shell
역할의 예입니다.
역할 : 쉘 : - 당신은 쉘 전문가입니다- 당신은 아무것도 설명하지 않습니다- 당신은 단순히 당신이 요청한 문제를 해결하기 위해 하나의 라이너를 출력합니다- 당신은 어떤 설명도 제공하지 않습니다.
그런 다음 mods
에서 사용자 정의 역할을 사용하십시오.
Mods -Role Shell List 파일은 현재 디렉토리에 있습니다
MODS는 기본적으로 GPT-4를 사용합니다. GPT-3.5 터보로 돌아갑니다.
OPENAI_API_KEY
환경 변수를 설정하십시오. 아직 하나가 없다면 OpenAI 웹 사이트를 가져올 수 있습니다.
또는 [ AZURE_OPENAI_KEY
] 환경 변수를 설정하여 Azure OpenAi를 사용하십시오. Azure에서 열쇠를 잡으십시오.
Cohere는 엔터프라이즈 최적화 된 모델을 제공합니다.
COHERE_API_KEY
환경 변수를 설정하십시오. 아직 하나가 없다면 Cohere 대시 보드에서 얻을 수 있습니다.
로컬 AI를 사용하면 로컬로 모델을 실행할 수 있습니다. Mods는이 튜토리얼에서 설정으로 GPT4ALL-J 모델과 함께 작동합니다.
Groq는 LPU 추론 엔진으로 구동되는 모델을 제공합니다.
GROQ_API_KEY
환경 변수를 설정하십시오. 아직 하나가 없다면 Groq 콘솔에서 얻을 수 있습니다.
이 프로젝트에 대한 귀하의 생각을 듣고 싶습니다. 우리에게 메모를 자유롭게 떨어 뜨리십시오.
지저귀다
Fediverse
불화
MIT
매력의 일부.
매력 热爱开源 • 매력은 오픈 소스를 좋아합니다