Chatear con LLM en su Mac sin instalar ningún otro software. Cada conversación se guarda localmente, todas las conversaciones ocurren fuera de línea.
Únase a la beta de TestFlight: https://6032904148827.gumroad.com/l/freechat-beta
O descargue en la tienda de aplicaciones de Mac: https://apps.apple.com/us/app/freechat/id6458534902
O construir desde la fuente a través de "Archivo" en Xcode después de completar la configuración de Dev a continuación.
El objetivo principal de Freechat es hacer que los modelos abiertos, locales y privados sean accesibles para más personas.
Freechat es un aparato nativo de LLM para macOS que se ejecuta completamente localmente. Descárguelo y haga una pregunta a su LLM sin hacer ninguna configuración. Una versión local/LLAMA del chat de Operai sin iniciar sesión o seguimiento. Debería poder instalar desde Mac App Store y usarla de inmediato.
Una vez que está en funcionamiento, es divertido probar diferentes modelos en Freechat. La comunidad de capacitación de IA está lanzando nuevos modelos básicamente todos los días. Freechat es compatible con cualquier modelo formateado de GGUF con el que trabaja llama.cpp.
Los modelos generalmente se nombran con su recuento de parámetros (por ejemplo, 7B) y se formatean con diferentes niveles de compresión con pérdida aplicada (cuantificación). La regla general es que los modelos con más parámetros tienden a ser más lentos y más sabios, y más cuantificación lo hace más tonto.
Para encontrar modelos, intente abrazar la cara. La mayoría de los modelos tienen una "tarjeta modelo" vinculada por el autor que discute su capacitación y habilidades.
Las contribuciones son muy bienvenidas. Hagamos que Freechat sea simple y poderoso.
Este proyecto no sería posible sin el arduo trabajo de:
También muchas gracias a Billy Rennekamp, Elliot Hursh, Tomás Savigliano, Judd Schoenholtz, Alex Farrill por invaluables sesiones de spitballing.