FLAML รองรับการปรับแต่ง AutoML และ Hyperparameter ใน Microsoft Fabric Data Science นอกจากนี้ เรายังแนะนำการรองรับ Python 3.11 พร้อมด้วยตัวประมาณค่าใหม่ๆ และการผสานรวมอย่างครอบคลุมกับ MLflow ด้วยการสนับสนุนจากทีมผลิตภัณฑ์ Microsoft Fabric
โปรดทราบ: เราได้ย้าย AutoGen ไปยังพื้นที่เก็บข้อมูล GitHub เฉพาะแล้ว นอกเหนือจากความเคลื่อนไหวนี้แล้ว เรายังได้เปิดตัวเซิร์ฟเวอร์ Discord โดยเฉพาะและเว็บไซต์สำหรับเอกสารประกอบที่ครอบคลุมอีกด้วย
กรอบงานการแชทหลายตัวแทนอัตโนมัติใน AutoGen อยู่ในการแสดงตัวอย่างตั้งแต่ v2.0.0
FLAML ถูกเน้นไว้ในตำราอาหารของ OpenAI
autogen เปิดตัวพร้อมรองรับ ChatGPT และ GPT-4 โดยอิงตามการเพิ่มประสิทธิภาพไฮเปอร์พารามิเตอร์ที่คุ้มค่าสำหรับการอนุมานการสร้างโมเดลภาษาขนาดใหญ่
FLAML เป็นไลบรารี Python น้ำหนักเบาสำหรับระบบอัตโนมัติที่มีประสิทธิภาพของการเรียนรู้ของเครื่องและการทำงานของ AI โดยทำให้เวิร์กโฟลว์เป็นอัตโนมัติตามโมเดลภาษาขนาดใหญ่ โมเดลการเรียนรู้ของเครื่อง ฯลฯ และปรับประสิทธิภาพให้เหมาะสม
FLAML ช่วยให้สามารถสร้างแอปพลิเคชัน GPT-X ยุคถัดไปโดยอิงจากการสนทนาหลายตัวแทนโดยใช้ความพยายามเพียงเล็กน้อย ช่วยให้การเรียบเรียง ระบบอัตโนมัติ และการเพิ่มประสิทธิภาพของเวิร์กโฟลว์ GPT-X ที่ซับซ้อนง่ายขึ้น ช่วยเพิ่มประสิทธิภาพสูงสุดของรุ่น GPT-X และเพิ่มจุดอ่อน
สำหรับงานแมชชีนเลิร์นนิงทั่วไป เช่น การจำแนกประเภทและการถดถอย ระบบจะค้นหาโมเดลคุณภาพสำหรับข้อมูลที่ผู้ใช้ให้มาซึ่งมีทรัพยากรในการคำนวณต่ำอย่างรวดเร็ว ง่ายต่อการปรับแต่งหรือขยาย ผู้ใช้สามารถค้นหาความสามารถในการปรับแต่งที่ต้องการได้จากช่วงที่ราบรื่น
รองรับการปรับแต่งอัตโนมัติที่รวดเร็วและประหยัด (เช่น ไฮเปอร์พารามิเตอร์การอนุมานสำหรับโมเดลพื้นฐาน การกำหนดค่าในเวิร์กโฟลว์ MLOps/LMOps ไปป์ไลน์ แบบจำลองทางคณิตศาสตร์/สถิติ อัลกอริธึม การทดลองทางคอมพิวเตอร์ การกำหนดค่าซอฟต์แวร์) สามารถจัดการพื้นที่การค้นหาขนาดใหญ่ด้วยต้นทุนการประเมินที่แตกต่างกัน และ ข้อจำกัดที่ซับซ้อน/คำแนะนำ/การหยุดก่อนกำหนด
FLAML ขับเคลื่อนโดยชุดการศึกษาวิจัยจาก Microsoft Research และผู้ร่วมงาน เช่น Penn State University, Stevens Institute of Technology, University of Washington และ University of Waterloo
FLAML มีการใช้งาน .NET ใน ML.NET ซึ่งเป็นเฟรมเวิร์กการเรียนรู้ของเครื่องแบบโอเพ่นซอร์สและข้ามแพลตฟอร์มสำหรับ .NET
FLAML ต้องใช้ เวอร์ชัน Python >= 3.8 สามารถติดตั้งได้จาก pip:
pip ติดตั้ง flaml
มีการติดตั้งการพึ่งพาขั้นต่ำโดยไม่มีตัวเลือกเพิ่มเติม คุณสามารถติดตั้งตัวเลือกพิเศษตามคุณสมบัติที่คุณต้องการได้ ตัวอย่างเช่น ใช้สิ่งต่อไปนี้เพื่อติดตั้งการขึ้นต่อกันที่จำเป็นสำหรับแพ็คเกจ autogen
pip ติดตั้ง "flaml [autogen]"
ค้นหาตัวเลือกเพิ่มเติมในการติดตั้ง notebook examples
แต่ละตัวอย่างอาจต้องมีตัวเลือกเฉพาะในการติดตั้ง
(ใหม่) แพ็คเกจ autogen ช่วยให้แอปพลิเคชัน GPT-X รุ่นถัดไปมีกรอบการสนทนาแบบหลายตัวแทนทั่วไป มีตัวแทนที่ปรับแต่งและสนทนาได้ ซึ่งรวม LLM เครื่องมือ และมนุษย์เข้าด้วยกัน ด้วยการทำให้การแชทอัตโนมัติระหว่างตัวแทนที่มีความสามารถหลายราย ทำให้เราสามารถทำให้พวกเขาทำงานร่วมกันได้โดยอัตโนมัติหรือด้วยการตอบรับจากมนุษย์ ซึ่งรวมถึงงานที่ต้องใช้เครื่องมือผ่านโค้ด ตัวอย่างเช่น,
จาก flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="แสดงกำไร YTD ของบริษัทเทคโนโลยีที่ใหญ่ที่สุด 10 แห่ง ณ วันนี้", )# สิ่งนี้จะเริ่มต้นการแชทอัตโนมัติระหว่างตัวแทนทั้งสองเพื่อแก้ไขปัญหา
Autogen ยังช่วยเพิ่มอรรถประโยชน์สูงสุดจาก LLM ราคาแพง เช่น ChatGPT และ GPT-4 มีการแทนที่ openai.Completion
หรือ openai.ChatCompletion
แบบดรอปอินด้วยฟังก์ชันการทำงานที่มีประสิทธิภาพ เช่น การปรับแต่ง การแคช การสร้างเทมเพลต การกรอง ตัวอย่างเช่น คุณสามารถเพิ่มประสิทธิภาพการสร้างโดย LLM ด้วยข้อมูลการปรับแต่ง ตัวชี้วัดความสำเร็จ และงบประมาณของคุณเอง
# ทำการปรับแต่งการกำหนดค่า, การวิเคราะห์ = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# ทำการอนุมานสำหรับการทดสอบ instanceresponse = autogen.Completion.create(context=test_instance, **config)
ด้วยโค้ดสามบรรทัด คุณสามารถเริ่มใช้กลไก AutoML ที่ประหยัดและรวดเร็วนี้เป็นตัวประมาณค่าสไตล์ Scikit ได้
จากการนำเข้า flaml AutoMLautoml = AutoML()automl.fit(X_train, y_train, job="classification")
คุณสามารถจำกัดผู้เรียนและใช้ FLAML เป็นเครื่องมือปรับแต่งไฮเปอร์พารามิเตอร์ที่รวดเร็วสำหรับ XGBoost, LightGBM, Random Forest ฯลฯ หรือผู้เรียนที่ปรับแต่งเองได้
automl.fit(X_train, y_train, งาน = "การจำแนก", estimator_list = ["lgbm"])
คุณยังสามารถเรียกใช้การปรับแต่งไฮเปอร์พารามิเตอร์ทั่วไปสำหรับฟังก์ชันแบบกำหนดเองได้
จากการนำเข้า flaml tunetun.run(evalue_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600)
Zero-shot AutoML อนุญาตให้ใช้ API การฝึกอบรมที่มีอยู่จาก lightgbm, xgboost ฯลฯ ในขณะที่ได้รับประโยชน์จาก AutoML ในการเลือกการกำหนดค่าไฮเปอร์พารามิเตอร์ประสิทธิภาพสูงต่องาน
จาก flaml.default import LGBMRegressor# ใช้ LGBMRegressor ในลักษณะเดียวกับที่คุณใช้ lightgbm.LGBMRegressor.estimator = LGBMRegressor()# ไฮเปอร์พารามิเตอร์จะถูกตั้งค่าโดยอัตโนมัติตามข้อมูลการฝึกอบรม data.estimator.fit(X_train, y_train)
คุณสามารถดูเอกสารโดยละเอียดเกี่ยวกับ FLAML ได้ที่นี่
นอกจากนี้คุณยังสามารถค้นหา:
การวิจัยและโพสต์บล็อกเกี่ยวกับ FLAML
ความไม่ลงรอยกัน
คู่มือการมีส่วนร่วม
เอกสารประกอบและบทช่วยสอน ML.NET สำหรับ Model Builder, ML.NET CLI และ AutoML API
โครงการนี้ยินดีรับการสนับสนุนและข้อเสนอแนะ การบริจาคส่วนใหญ่กำหนดให้คุณยอมรับข้อตกลงใบอนุญาตผู้ร่วมให้ข้อมูล (CLA) โดยประกาศว่าคุณมีสิทธิ์ที่จะให้สิทธิ์แก่เราในการใช้การบริจาคของคุณจริงๆ สำหรับรายละเอียด โปรดไปที่ https://cla.opensource.microsoft.com
หากคุณยังใหม่กับ GitHub นี่คือแหล่งความช่วยเหลือโดยละเอียดเกี่ยวกับการมีส่วนร่วมกับการพัฒนาบน GitHub
เมื่อคุณส่งคำขอดึง บอท CLA จะกำหนดโดยอัตโนมัติว่าคุณจำเป็นต้องจัดเตรียม CLA และตกแต่ง PR อย่างเหมาะสมหรือไม่ (เช่น การตรวจสอบสถานะ ความคิดเห็น) เพียงทำตามคำแนะนำที่ได้รับจากบอท คุณจะต้องทำสิ่งนี้เพียงครั้งเดียวกับ repos ทั้งหมดโดยใช้ CLA ของเรา
โครงการนี้ได้นำหลักจรรยาบรรณของ Microsoft Open Source มาใช้ สำหรับข้อมูลเพิ่มเติม โปรดดูคำถามที่พบบ่อยเกี่ยวกับจรรยาบรรณหรือติดต่อ [email protected] หากมีคำถามหรือความคิดเห็นเพิ่มเติม