- FrogTeam.ai
Обновление v0.1.6: 13.10.2024
- Улучшенная обработка событий для сохранения подсказок и настроек.
- >Подсказка обертки для dall-e-3
- Дополнительная подсказка ведущему архитектору
Обновление v0.1.5: 01.10.2024
- Добавьте нового члена команды и назначьте его художником-графиком.
- Выберите модель dall-e-3
- Это новая функция, не требующая проверки и инструкций.
Пример использования графического художника Я назвала своего художника-графика Дженни. Когда я описывал, чего хочу, я также включил следующее, чтобы объяснить ограничения Дженни и то, как я хочу, чтобы ведущий архитектор выполнял ее задания. Обязательно попросите Дженни сделать графику. Инструкции Дженни должны быть очень конкретными. Вы можете попросить ее создать только один графический файл за раз, и вы можете описать в подсказке только то, что вы хотите, чтобы она сделала. Подсказка для Дженни должна быть короткой, например: «Сделай мне небольшой файл значка, похожий на лягушку». Дженни просто возвращает путь к созданному ею файлу. Вам нужно обойти ее ограничения. В роли ведущего архитектора сначала спланируйте, что вам нужно от Дженни, а затем скажите остальным, что делать с тем, что вы поручили Дженни создать!
Обновление v0.1.2: 08.09.2024
- НОВЫЙ ИНСТРУМЕНТ: Поиск кода. Если вы хотите внести изменения, которые могут повлиять на несколько файлов, существует новый инструмент, который LLM может использовать для поиска кода решения.
- Улучшенная обработка ошибок вызова инструмента
Обновление v0.1.1: 08.09.2024
- Эксперименты mlFLow для отслеживания подсказок
- Конфигурация mlFLow в .vscode/frogteam/config.json
- файлы frogteam перемещены в .vscode/frogteam/
- Исправлен файл project.jsonb.
- Дал состояние вкладки ответа
Обновление v0.1.0: 07.09.2024
- Эксперименты с mlFLow. Ранняя настройка. mlFlow работает только с локального хоста: 5001.
- Исправлены события публикации сообщений в веб-просмотре.
- обновлены элементы дерева участников и подсказок
Обновления v0.0.19: 01.09.2024
Этот выпуск предназначен для исправления ошибок. Исправлены кнопки «Удалить» и «Клонировать». Исправлена отсутствующая категория подсказок.
Также обратите внимание: подсказкам можно назначить подстановочный знак (*) для их модели.
Обновления v0.0.18: 30.08.2024. Подробную информацию можно найти в журнале изменений. Это большое событие для реорганизации истории.
Обновления v0.0.17: 25.08.2024
- Команды — пункт меню верхнего уровня.
- Иерархия истории изменений
- Переключить группировку истории (см. «Команды»)
- Родительские/дочерние элементы, но плоское дерево
- Это означает, что дочерние элементы появляются под своими родителями, а также в корне дерева.
- Отвечайте на ответы напрямую
- На панели ответов истории, когда ответом является Markdown, появляется кнопка «Ответить здесь».
- При использовании этой функции соответствующая немедленная история будет включена в новое взаимодействие LLM.
- Теперь Builder собирает имя и каталог проекта.
- Эта информация используется для форматирования XML, используемого в приглашении.
- Это говорит LLM, что именно он получает.
- Системные подсказки будут скорректированы в будущих версиях.
- В следующей версии в иерархии истории будет использоваться «Имя проекта».
14.08.2024 Обновления:
- Azure OpenAI
- Обновите Axios из-за отчета об уязвимости
- Добавлены некоторые примечания на панель настройки участников.
13.08.2024 Обновления:
- Маркировка записей истории
- Обновленное отображение истории
Далее я собираюсь добавить новый инструмент, позволяющий LLM запрашивать историю по мере необходимости. Я также думаю о том, как разрешить LLM запрашивать пользователя. Если используется этот инструмент, разговор будет приостановлен до тех пор, пока пользователь не ответит. Это функция, которую пользователь может захотеть отключить. Мне бы хотелось услышать отзывы по этому поводу.
10.08.2024 Обновления:
- Ведущий архитектор может использовать все реализованные модели.
- Добавлен индикатор текущего состояния в строке состояния: «Frogteam», когда проект выполняется, и «имя участника», когда это запланированный запуск.
- Добавлен выходной канал под названием «FrogTeam.ai», который обновляется при каждой записи истории и других событиях.
- В представление проекта добавлены команды «Новый участник» и «Подсказка», чтобы сделать эти действия более заметными.
- Добавлено сообщение об ошибке, сообщающее вам, когда у члена команды нет согласованного системного запроса.
- Новый запрос на запрос сводки задачи/проекта
- Подстановочные знаки
- импортировать новые подсказки
- Ключ API из переменной среды
08.08.2024
Привет. Спасибо, что заглянули. Я решил выложить это здесь. Это хорошее место, где есть некоторая функциональность. Идея состоит в том, чтобы создать членов команды, которые будут представлены конкретным LLM. Вы можете использовать множество различных программ LLM, и со временем способы отбора участников и выполнения заданий будут развиваться из того рудиментарного состояния, в котором я нахожусь сегодня. Вы можете использовать модели AWS Bedrock и модели OpenAI, и на данный момент я, скорее всего, останусь в этих границах при выборе LLM: - Модель поддерживает вызов инструментов - Модель и ее функция вызова инструментов поддерживаются langchain В настоящее время я фокусируюсь на некоторых функциях пользовательского интерфейса, пока Я улучшаю/усовершенствую свою цепочку вызовов инструментов. Я надеюсь вскоре перейти к функции совместного использования системных подсказок и, в конечном итоге, мне бы хотелось интегрировать RAG с локальными векторами. Я надеюсь затем развернуться и использовать свое расширение для разработки следующего мобильного приложения, каким бы оно ни было.
Мне интересно, есть ли аппетит к тому, что я здесь делаю. Дайте мне знать ваши мысли.
Вот короткое демонстрационное видео. ведущий архитектор теперь может использовать другие модели
Следуйте за мной в Instagram.
- - FrogTeam.ai
- Ваша виртуальная команда разработчиков GenAI
- Поток
- Интеграция MFLlow
- Известные проблемы/ограничения
- Задачи — реализация других источников моделей
- Задачи — на палубе
- Задачи – бэклог
- Примеры запросов пользователя
- Иконки
- Как внести свой вклад
- Отправка проблем
Ваша виртуальная команда разработчиков GenAI
Это мой побочный проект, мне нравится писать и генерировать код проекта.
Это генеративный интерфейс искусственного интеллекта, в котором вы можете регистрировать новые модели, настраивать параметры модели и подсказки, взаимодействовать с встраиваниями Chroma (в конечном итоге) и иметь общий набор команд, которые вы можете использовать для взаимодействия с файлами в рабочей области и выходными данными из различные LLM. Вы регистрируете «членов команды» и назначаете им модель. Вы можете использовать одну и ту же модель несколько раз или использовать разные модели. Вы можете назначить членов команды для совместной работы над задачей.
Обзор
- Должность ведущего архитектора
- Ведущий архитектор разбивает проект на части и дает другим доступным участникам задачу, которая, по его мнению, соответствует общему проекту.
- После выполнения всех заданий ведущий архитектор проведет проверку, чтобы
- исправить проблемы, которые он может
- обобщить общее решение
- Задания по одной задаче
- Добавить/удалить/изменить члена команды
- Имя
- Модель
- Ограничения (не реализованы)
- Подскажите библиотеку
- В конечном итоге это будет связано с репозиторием git или конечной точкой https, где станут доступны новые запросы.
- Это планируется как платформа для обмена информацией в сообществе.
- Набор по умолчанию
- Добавить/Удалить/Изменить
- тэги: модель, назначение Планируемые команды
- @TeamMember
Поток
Вы должны определить как минимум трех участников: ведущего архитектора, ведущего инженера, разработчика.
Откройте конструктор
«Строитель» находится на панели «Проект».
Описание проекта Опишите, что представляет собой проект. Будьте конкретны и предоставьте любую имеющуюся у вас информацию. Фрагменты кода, предложения по иерархии классов, исследования и ссылки на примеры. Ссылки на веб-сайты библиотек, которые вы хотите использовать, и т. д. Когда вы нажимаете «Project GO»,
Ведущий архитектор Ведущий архитектор разбирает проект и
- Предоставляет каждому участнику задание
Каждый участник работает до завершения своего задания. Когда задача завершается, информация добавляется к сообщениям. Когда все участники выполнили свои задачи, ведущий архитектор получает окончательную оценку и подводит итог проделанной работы.
Вы можете уточнить запрос и отправить его еще раз. Существующие файлы будут использоваться и редактироваться.
Интеграция MFLlow
Очень простая регистрация подсказок и продолжительности прямо сейчас. Я хочу собрать набор решений, каждое из которых имеет конкретное определение проекта, предоставленное пользователем, а затем создать конвейер оценки для сопоставления системных подсказок с заданными пользовательскими подсказками для каждого решения. Я хотел бы добиться того, чтобы сообщество могло предоставлять системные подсказки, оптимизированные для конкретных языков и технологий. Чтобы отправить системное приглашение, вам необходимо пройти конвейер оценки. Было бы особенно здорово обеспечить возможность совместного использования векторов знаний/вложений, обосновывающих системную подсказку более конкретным контекстом. Интеграция MLFLow здесь является экспериментальной, но я предполагаю добавить вкладку «Тест», на которой можно использовать и отправлять тестовые данные, и вкладку «Отправка», на которой можно отправлять и отслеживать подсказки.
Известные проблемы/ограничения
- Проверка соответствия членов команды подсказкам. Сейчас используйте представление «Состав команды», чтобы вручную проверить, соответствуют ли все участники системным подсказкам. Если вы видите: Ошибка типа: невозможно прочитать свойства неопределенного значения (чтение «содержимого»), проверьте состав, возможно, у кого-то нет подсказки.
- Нет проверки вызова инструмента, поэтому иногда первоначальная генерация проекта никогда не завершается — вы можете попробовать еще раз.
- приближается проверка/повторная попытка
- В настоящее время это будет работать напрямую только с OpenAI или AWs Bedrock.
- Для OpenAI вам нужен ключ API
- Для работы с AWS Bedrock вам необходимо войти в AWS в своей среде VS Code, и вам необходимо, чтобы поддерживаемые модели были развернуты в соответствующей учетной записи/регионе.
- OpenAI в Azure реализован, но, признаюсь, я его не проверял ( если кто-то попробует, дайте мне знать )
Задачи — реализация других источников моделей
- Сейчас я гоняюсь за моделями, поддерживающими вызовы инструментов с использованием инфраструктуры Langchain.
- OpenAI от OpenAI
- gpt-4o готово
- gpt-4-турбо готово
- gpt-35-турбо готово
- AWS Основа
- Антропный Клод 3.5 Сонет готов
- Anthropic Cluade 2 Haiku готово
- OpenAI в Azure
- gpt-4o ТРЕБУЕТ ТЕСТИРОВАНИЯ
- gpt-4-turbo ТРЕБУЕТ ТЕСТИРОВАНИЯ
- gpt-35-turbo ТРЕБУЕТ ТЕСТИРОВАНИЯ
- ОбниматьЛицо
- Есть ли стандартный способ, которым я могу это сделать. Для меня это исследовательская задача.
Задачи — на палубе
- Создайте инструмент для llm, который выполняет поиск кода, например, просто используйте поиск vscode, чтобы найти вещи в файлах, позволяющие выполнить поиск/замену LLM.
- млфлоу
- установка эксперимента
- Вы можете начать новый эксперимент, и идентификатор эксперимента будет сохранен вместе с завершенным объектом приглашения.
- места, где используется приглашение, будут созданы, а приглашение и продолжительность зарегистрируются `
- Вы можете остановить эксперимент, очистив идентификатор эксперимента .
СИСТЕМНОЕ ПОДСКАЗКА Иногда к большому файлу просто имеется комментарий, в котором говорится, что все остальное остается неизменным, и пользователю предоставляются команды git для его исправления. Следующее предложение необходимо добавить в системные подсказки. «Помните, что это «живые» файлы решений, которые вы должны выводить целиком. Если вы скажете что-то вроде «остальная часть этого кода останется неизменной», файл станет неполным. Не делайте этого». НА СЕЙЧАС Я ДОБАВИЛ В ОПИСАНИЕ ИНСТРУМЕНТА saveContentToFileApi.
Нам нужен более простой способ экспорта уценки: пользователь должен иметь возможность щелкнуть значок «Копировать», чтобы скопировать ответ уценки.
Создайте новый инструмент, который позволяет llm запрашивать содержимое URL-адреса, если это изображение, мы также должны использовать его в base64.
- должно ли это быть для чанка/векторизации/RAG?
Добавьте try...catch/check на длину, где .content используется из ответа llm.
Добавьте try...catch для вызовов инструментов и запишите сбой в истории .
настройка ограничения времени или токена для модели/члена команды
- внедрить ограничения на токены членов команды/ограничения по времени/ограничения на токены запроса
- это потребует отслеживания
- ведущий архитектор должен будет учитывать эти ограничения при выдаче заданий.
- установить температуру и другие настройки для члена команды
ОШИБКА: Когда участника просят выполнить задачу, иногда сводка оказывается избыточной.
ОШИБКА: иногда определения или результаты ToolCall неверны, и процесс выдает ошибку.
- Может быть, просто попробовать поймать и сообщить/записать/добавить историю того, что произошло? сделанный
- На данный момент пользователь может просто попробовать нажать «Перейти» еще раз.
- Ан
- 0y исправление потребует соблюдения правил разговора
Задачи – бэклог
- Инструмент «Спросите человека» — создайте инструмент, который позволит любому члену команды (включая ведущего архитектора) задавать вопросы, адресованные человеку.
- это может присутствовать в истории, но приведет к ожиданию всего потока задач
- Документ должен открыться с вопросом на дисплее.
- при нажатии на документ «История» откроется документ
- Документ имеет состояние цепочки, позволяющее человеку ответить и возобновить цепочку.
- интеграция с git
- совершить сначала
- сначала спрятать
- PR-генерация
- платформа для быстрого обмена библиотеками — более широкое использование MLFlow
- Создайте панели данных, в которых будут размещаться «золотые» решения для конкретных запросов пользователей.
- Создайте конвейер для сравнения «системных» подсказок с золотыми решениями.
- Ускорьте процесс подачи
- добавить экземпляр Chromadb (необязательно?)
- веб-сканирование по требованию, которое будет фрагментироваться и сохраняться в локальной Chroma
- URL/Интернет или содержимое локального диска
- на основе типа файла
- реализовать стратегию разбиения на части для базы кода решения
- реализовать стратегию фрагментирования истории
- реализовать стратегию разбивки проектной документации
- реализовать историю поиска/поиск по коду
- настроить очередь для обработки запросов (чтобы пользователь мог ставить задачи в очередь во время выполнения операций)
- обрабатывать только один элемент за раз
- В истории
- значок для содержимого и ответа функции
- указать успех/неуспех (зеленая галочка вместо красного X)
- можем ли мы указать, когда есть содержимое файла, а когда нет (нет ли конфликта с уценкой?)
- иногда файл еще не был создан, и это нормально
Примеры запросов пользователя
Напишите мне простую веб-страницу, которая использует холст для рисования мяча и запускает его подпрыгивание по границам холста. Разбейте проект на несколько файлов: index.html, index.js и index.css. Поместите файлы в каталог с именем Bounce-Ball. Это только отправная точка проекта, поэтому имейте в виду, что мы будем просить внести изменения.
Создайте мне одностраничное приложение, показывающее направление от того места, где, по мнению веб-браузера, оно находится, до ближайшей железнодорожной станции.
Используя веб-картографию openstreetmap, вы сможете имитировать отслеживание воздушной метки по мере ее движения. из: Точка A -> 1 Gray Rock Place, Стэмфорд, Коннектикут в: Точка B -> Парк Коув-Айленд, Стэмфорд, Коннектикут
- Для этого создайте маршруты движения между этими двумя местами, а затем покажите точку, перемещающуюся по этим направлениям с течением времени.
- Любые файлы следует создавать/редактировать в каталоге «отслеживание».
- Я ожидаю, что смогу открыть index.html из каталога отслеживания с помощью расширения LiveServer VS Code, и когда я это сделаю, я ожидаю увидеть карту, показывающую места, которые я упомянул.
Используйте HTML Canvas, чтобы создать игру в теннис с веслом, в которой вы можете перемещать прямоугольный блок вперед и назад, используя клавиши со стрелками влево и вправо. Вы ударяете по мячу, он поднимается вверх, попадает в верхнюю часть и возвращается обратно. Если вы промахнетесь и мяч ударится о нижнюю стенку, вы потеряете очко, если вы ударите по мячу, вы получите 2 очка.
Напишите игру-головоломку для html-холста. Он должен содержать набор фигур, которые перемещаются по кругу, и при нажатии вы фиксируете фигуру, а при щелчке по выбранной фигуре фигура вращается. После того, как пользователь выбирает три фигуры, они начинают падать вниз по области холста. Пользователю необходимо соединить три фигуры вместе, чтобы сформировать другую фигуру, прежде чем достичь дна. Когда две фигуры заблокированы, возможно, скорость падения замедляется. Пользователь делает это, щелкая фигуры, чтобы вращать их.
Иконки
Любые значки, которые вы видите, либо взяты из списка ниже, я их создал, либо мне помог GenAI. Файлы лицензий хранятся и распространяются в каталоге ресурсов.
- https://iconduck.com/sets/elementary-icon-set
- https://iconduck.com/sets/open-iconic-icon-set
- https://iconduck.com/sets/font-awesome-icons
- https://iconduck.com/sets/material-design-icons
Как внести свой вклад
Я ценю ваш интерес к участию в этом проекте. Однако в настоящее время я не принимаю прямые взносы, такие как запросы на включение. Вместо этого я рекомендую вам сообщать о проблемах, если вы обнаружите какие-либо ошибки, у вас есть запросы на добавление новых функций или вам нужна помощь.
Отправка проблем
Чтобы сообщить о проблеме, воспользуйтесь функцией GitHub Issues. Подробно опишите вашу проблему, и я решу ее в кратчайшие сроки.
Спасибо за понимание и поддержку!