ชุดเริ่มต้น AI ที่โฮสต์เอง คือเทมเพลต Docker Compos แบบโอเพ่นซอร์สที่ออกแบบมาเพื่อเริ่มต้น AI ในพื้นที่ที่ครอบคลุมและสภาพแวดล้อมการพัฒนาที่ใช้โค้ดน้อยได้อย่างรวดเร็ว
ดูแลจัดการโดย https://github.com/n8n-io โดยผสมผสานแพลตฟอร์ม n8n ที่โฮสต์เองเข้ากับรายการผลิตภัณฑ์ AI ที่เข้ากันได้และส่วนประกอบต่างๆ เพื่อเริ่มต้นสร้างเวิร์กโฟลว์ AI ที่โฮสต์เองได้อย่างรวดเร็ว
เคล็ดลับ
อ่านประกาศ
✅ n8n โฮสต์เอง - แพลตฟอร์มที่ใช้โค้ดน้อยพร้อมการผสานรวมมากกว่า 400 รายการและส่วนประกอบ AI ขั้นสูง
✅ Ollama - แพลตฟอร์ม LLM ข้ามแพลตฟอร์มเพื่อติดตั้งและรัน LLM ท้องถิ่นล่าสุด
✅ Qdrant - ร้านค้าเวกเตอร์โอเพ่นซอร์สประสิทธิภาพสูงพร้อม API ที่ครอบคลุม
✅ PostgreSQL - ผู้ขับเคลื่อนโลกแห่งวิศวกรรมข้อมูล จัดการข้อมูลจำนวนมากได้อย่างปลอดภัย
️ ตัวแทน AI สำหรับการนัดหมาย
️ สรุป PDF ของบริษัท อย่างปลอดภัยโดยไม่มีข้อมูลรั่วไหล
️ Slack Bots ที่ชาญฉลาดยิ่ง ขึ้นสำหรับการสื่อสารของบริษัทและการดำเนินงานด้านไอทีที่ได้รับการปรับปรุง
️ วิเคราะห์เอกสารทางการเงินส่วนตัว ด้วยต้นทุนที่ต่ำที่สุด
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
บันทึก
หากคุณไม่เคยใช้ Nvidia GPU กับ Docker มาก่อน โปรดปฏิบัติตามคำแนะนำของ Ollama Docker
หากคุณใช้ Mac ที่มีโปรเซสเซอร์ M1 หรือใหม่กว่า คุณจะไม่สามารถเปิดเผย GPU ของคุณกับอินสแตนซ์ Docker ได้ มีสองตัวเลือกในกรณีนี้:
หากคุณต้องการเรียกใช้ Ollama บน Mac ของคุณ ให้ตรวจสอบหน้าแรกของ Ollama เพื่อดูคำแนะนำในการติดตั้ง และเรียกใช้ชุดเริ่มต้นดังต่อไปนี้:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
หลังจากที่คุณปฏิบัติตามการตั้งค่าเริ่มต้นอย่างรวดเร็วด้านล่างแล้ว ให้เปลี่ยนข้อมูลรับรอง Ollama โดยใช้ http://host.docker.internal:11434/
เป็นโฮสต์
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
แกนหลักของชุดเริ่มต้น AI ที่โฮสต์ในตัวเองคือไฟล์ Docker Compose ที่ได้รับการกำหนดค่าล่วงหน้าด้วยการตั้งค่าเครือข่ายและพื้นที่เก็บข้อมูล ช่วยลดความจำเป็นในการติดตั้งเพิ่มเติม หลังจากทำตามขั้นตอนการติดตั้งข้างต้นแล้ว เพียงทำตามขั้นตอนด้านล่างเพื่อเริ่มต้น
หากต้องการเปิด n8n ตลอดเวลา โปรดไปที่ http://localhost:5678/ ในเบราว์เซอร์ของคุณ
ด้วยอินสแตนซ์ n8n คุณจะสามารถเข้าถึงการผสานรวมมากกว่า 400 รายการและชุดโหนด AI ขั้นพื้นฐานและขั้นสูง เช่น เอเจนต์ AI ตัวแยกประเภทข้อความ และโหนดตัวแยกข้อมูล เพื่อให้ทุกอย่างอยู่ในท้องถิ่น เพียงอย่าลืมใช้โหนด Ollama สำหรับโมเดลภาษาของคุณ และใช้ Qdrant เป็นที่เก็บเวกเตอร์ของคุณ
บันทึก
ชุดเริ่มต้นนี้ออกแบบมาเพื่อช่วยให้คุณเริ่มต้นกับเวิร์กโฟลว์ AI ที่โฮสต์เอง แม้ว่าจะไม่ได้รับการปรับให้เหมาะสมที่สุดสำหรับสภาพแวดล้อมการผลิต แต่ก็รวมส่วนประกอบที่แข็งแกร่งซึ่งทำงานร่วมกันได้ดีสำหรับโครงการที่พิสูจน์แนวคิดได้ คุณสามารถปรับแต่งให้ตรงตามความต้องการเฉพาะของคุณได้
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n เต็มไปด้วยเนื้อหาที่มีประโยชน์สำหรับการเริ่มต้นอย่างรวดเร็วด้วยแนวคิดและโหนด AI หากคุณประสบปัญหา โปรดไปที่ฝ่ายสนับสนุน
หากต้องการแนวคิดเวิร์กโฟลว์ AI เพิ่มเติม โปรดไปที่ แกลเลอรีเทมเพลต n8n AI อย่างเป็นทางการ จากแต่ละเวิร์กโฟลว์ ให้เลือกปุ่ม ใช้เวิร์กโฟลว์ เพื่อนำเข้าเวิร์กโฟลว์ไปยังอินสแตนซ์ n8n ภายในเครื่องของคุณโดยอัตโนมัติ
ชุดเริ่มต้น AI ที่โฮสต์เองจะสร้างโฟลเดอร์แชร์ (โดยค่าเริ่มต้นจะอยู่ในไดเร็กทอรีเดียวกัน) ซึ่งติดตั้งกับคอนเทนเนอร์ n8n และอนุญาตให้ n8n เข้าถึงไฟล์บนดิสก์ได้ โฟลเดอร์นี้ภายในคอนเทนเนอร์ n8n อยู่ที่ /data/shared
ซึ่งเป็นเส้นทางที่คุณต้องใช้ในโหนดที่โต้ตอบกับระบบไฟล์ในเครื่อง
โหนดที่โต้ตอบกับระบบไฟล์ในเครื่อง
โครงการนี้ได้รับอนุญาตภายใต้ Apache License 2.0 - ดูรายละเอียดในไฟล์ LICENSE
เข้าร่วมการสนทนาในฟอรัม n8n ซึ่งคุณสามารถ: