Una guía de ingeniería de código abierto para un aprendizaje rápido en contexto de EgoAlpha Lab.
Artículos | ⚡️ Parque infantil | ? Ingeniería rápida | ? Aviso de ChatGPT | ⛳ Guía de uso de LLM
️ Shining ️: se trata de recursos nuevos y actualizados diariamente para el aprendizaje en contexto y la ingeniería rápida. A medida que se acerca la Inteligencia General Artificial (AGI), actuemos y convirtámonos en súper aprendices para posicionarnos a la vanguardia de esta era emocionante y luchar por la grandeza personal y profesional.
Los recursos incluyen:
?¿Papeles? : Los últimos artículos sobre aprendizaje en contexto , ingeniería rápida , agentes y modelos básicos .
?¿Patio de juegos? : Grandes modelos de lenguaje (LLM) que permiten una experimentación rápida.
?Ingeniería rápida? : Técnicas rápidas para aprovechar modelos de lenguaje grandes.
?Mensaje ChatGPT? : Ejemplos oportunos que se pueden aplicar en nuestro trabajo y vida diaria.
?Guía de uso de LLM? : El método para comenzar rápidamente con modelos de lenguaje grandes mediante LangChain.
En el futuro, probablemente habrá dos tipos de personas en la Tierra (quizás incluso en Marte, pero esa es una pregunta para Musk):
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha lanza TrustGPT que se centra en el razonamiento. Confíe en el GPT con las capacidades de razonamiento más sólidas para obtener respuestas auténticas y confiables. Puede hacer clic aquí o visitar los parques infantiles directamente para experimentarlo.
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
¿Noticias históricas completas?
Puede hacer clic directamente en el título para ir a la ubicación del enlace PDF correspondiente.
El movimiento se encuentra con la atención: indicaciones de movimiento en vídeo ( 2024.07.03 )
Hacia un modelo de lenguaje amplio para la salud personal ( 2024.06.10 )
Husky: un agente de lenguaje unificado de código abierto para el razonamiento de varios pasos ( 2024.06.10 )
Hacia el aprendizaje permanente de grandes modelos lingüísticos: una encuesta ( 2024.06.10 )
Hacia la equivalencia semántica de la tokenización en el LLM multimodal ( 2024.06.07 )
Los LLM se encuentran con la generación y edición multimodal: una encuesta ( 2024.05.29 )
Aprendizaje de herramientas con modelos de lenguaje grandes: una encuesta ( 2024.05.28 )
Cuando los LLM ingresan al mundo 3D: una encuesta y metaanálisis de tareas 3D a través de modelos de lenguaje grandes multimodales ( 2024.05.16 )
Estimación y cuantificación de la incertidumbre para LLM: un enfoque supervisado simple ( 2024.04.24 )
Una encuesta sobre el mecanismo de memoria de agentes basados en modelos de lenguaje grande ( 2024.04.21 )
¿Lista completa de artículos? para "Encuesta"?
LLaRA: Supercarga de datos de aprendizaje de robots para políticas de visión y lenguaje ( 2024.06.28 )
Recuperación del tamaño del conjunto de datos a partir de pesos LoRA ( 2024.06.27 )
Optimización rápida acelerada de doble fase ( 2024.06.19 )
De RAG a parámetros enriquecidos: explorar cómo los modelos de lenguaje utilizan conocimiento externo sobre información paramétrica para consultas fácticas ( 2024.06.18 )
VoCo-LLaMA: Hacia la compresión de la visión con modelos de lenguaje grandes ( 2024.06.18 )
LaMDA: Ajuste fino de modelos grandes mediante adaptación de baja dimensión descompuesta espectralmente ( 2024.06.18 )
El impacto de la inicialización en la dinámica de ajuste fino de LoRA ( 2024.06.12 )
Un estudio empírico sobre el ajuste eficiente de parámetros para modelos de lenguajes grandes multimodales ( 2024.06.07 )
Ataques de puerta trasera entre contextos contra el aprendizaje rápido de gráficos ( 2024.05.28 )
Yuan 2.0-M32: Mezcla de expertos con enrutador de atención ( 2024.05.28 )
¿Lista completa de artículos? para "Diseño rápido"?
Un estudio empírico sobre el ajuste eficiente de parámetros para modelos de lenguajes grandes multimodales ( 2024.06.07 )
Cantor: inspiradora cadena de pensamiento multimodal de MLLM ( 2024.04.24 )
nicolay-r en SemEval-2024 Tarea 3: Uso de Flan-T5 para razonar la causa de la emoción en conversaciones con cadenas de pensamiento sobre estados emocionales ( 2024.04.04 )
La visualización del pensamiento provoca el razonamiento espacial en modelos de lenguaje grandes ( 2024.04.04 )
¿Pueden los modelos de lenguajes pequeños ayudar a los modelos de lenguajes grandes a razonar mejor?: Cadena de pensamiento guiada por LM ( 2024.04.04 )
Visual CoT: Desencadenar el razonamiento en cadena de pensamiento en modelos de lenguaje multimodal ( 2024.03.25 )
Un enfoque de estimulación de cadena de pensamiento con LLM para evaluar las respuestas de la evaluación formativa de los estudiantes en ciencias ( 2024.03.21 )
NavCoT: Impulsar la navegación de visión y lenguaje basada en LLM mediante el aprendizaje del razonamiento desenredado ( 2024.03.12 )
ERA-CoT: Mejora de la cadena de pensamiento a través del análisis de relaciones entre entidades ( 2024.03.11 )
El entrenamiento de coherencia con sesgo aumentado reduce el razonamiento sesgado en la cadena de pensamiento ( 2024.03.08 )
¿Lista completa de artículos? ¿Para "Cadena de Pensamiento"?
LaMDA: Ajuste fino de modelos grandes mediante adaptación de baja dimensión descompuesta espectralmente ( 2024.06.18 )
El impacto de la inicialización en la dinámica de ajuste fino de LoRA ( 2024.06.12 )
Un estudio empírico sobre el ajuste eficiente de parámetros para modelos de lenguajes grandes multimodales ( 2024.06.07 )
Aprovechamiento de tokens visuales para contextos de texto extendido en el aprendizaje multimodal ( 2024.06.04 )
Aprender a asimilar: aparición del aprendizaje en contexto y la composición de habilidades en tareas aritméticas modulares ( 2024.06.04 )
El contexto largo no es largo en absoluto: un buscador de datos de dependencia larga para modelos de lenguaje grandes ( 2024.05.28 )
Ajuste rápido eficiente mediante proyección multiespacio y fusión rápida ( 2024.05.19 )
MAML-en-LLM: Metaentrenamiento independiente del modelo de LLM para mejorar el aprendizaje en contexto ( 2024.05.19 )
Mejora de la diversidad de la generación de sentido común mediante grandes modelos lingüísticos mediante el aprendizaje en contexto ( 2024.04.25 )
Líneas de base aleatorias más sólidas para el aprendizaje en contexto ( 2024.04.19 )
¿Lista completa de artículos? para el "aprendizaje en contexto"?
Combinación de recuperación aumentada de expertos de LoRA para aprendizaje automático cargable ( 2024.06.24 )
Mejora de los sistemas RAG: una encuesta sobre estrategias de optimización para el rendimiento y la escalabilidad ( 2024.06.04 )
Mejora de la solidez del ruido de los modelos de lenguaje de recuperación aumentada con entrenamiento adversario adaptativo ( 2024.05.31 )
Acelerar la inferencia de generación de recuperación aumentada mediante selección de contexto disperso ( 2024.05.25 )
DocReLM: Dominar la recuperación de documentos con el modelo de lenguaje ( 2024.05.19 )
UniRAG: Aumento de recuperación universal para modelos de lenguajes grandes multimodales ( 2024.05.16 )
ChatHuman: comprensión humana 3D basada en el lenguaje con razonamiento de herramientas de recuperación aumentada ( 2024.05.07 )
RAZONES: Un punto de referencia para la recuperación y citas automatizadas de oraciones científicas utilizando LLM públicos y patentados ( 2024.05.03 )
Indicaciones de superposición: mejora y aceleración de la generación de recuperación aumentada ( 2024.04.10 )
Desenrede el NUDO: entrelazando conocimientos conflictivos y habilidades de razonamiento en modelos de lenguaje grandes ( 2024.04.04 )
¿Lista completa de artículos? para "Generación Aumentada de Recuperación"?
CELLO: Evaluación causal de modelos de lenguaje-visión amplia ( 2024.06.27 )
¡PreExMe! Exploración rápida a gran escala de LLM de código abierto para traducción automática y evaluación de resúmenes ( 2024.06.26 )
Revisando la evaluación de la comprensión de expresiones de referencia en la era de los grandes modelos multimodales ( 2024.06.24 )
OR-Bench: un punto de referencia de rechazo excesivo para modelos de lenguaje grandes ( 2024.05.31 )
TimeChara: Evaluación de alucinaciones de personajes en un momento dado de modelos de lenguaje grandes de juegos de roles ( 2024.05.28 )
Los sesgos sutiles necesitan medidas más sutiles: métricas duales para evaluar el sesgo representativo y de afinidad en modelos de lenguaje grandes ( 2024.05.23 )
HW-GPT-Bench: Punto de referencia de arquitectura compatible con hardware para modelos de lenguaje ( 2024.05.16 )
Los LLM multimodales luchan con el análisis básico de redes visuales: un punto de referencia de VNA ( 2024.05.10 )
Vibe-Eval: un conjunto de evaluación exhaustiva para medir el progreso de modelos de lenguaje multimodal ( 2024.05.03 )
Evaluación causal de modelos de lenguaje ( 2024.05.01 )
¿Lista completa de artículos? para "Evaluación y Confiabilidad"?
Métodos cooperativos de aprendizaje por refuerzo profundo de múltiples agentes para redes de computación de borde móvil asistidas por UAV ( 2024.07.03 )
El aprendizaje simbólico permite la autoevolución de agentes ( 2024.06.26 )
Ataques adversarios a agentes multimodales ( 2024.06.18 )
DigiRL: Capacitación de agentes de control de dispositivos en la naturaleza con aprendizaje por refuerzo autónomo ( 2024.06.14 )
Transformación de datos portátiles en conocimientos de salud utilizando agentes de modelos de lenguaje grandes ( 2024.06.10 )
Sueños neuromórficos: un camino hacia el aprendizaje eficiente en agentes artificiales ( 2024.05.24 )
Ajuste de modelos de lenguaje-visión amplios como agentes de toma de decisiones mediante el aprendizaje por refuerzo ( 2024.05.16 )
Aprendizaje de la comunicación entre agentes desde la perspectiva del modelado de gráficos ( 2024.05.14 )
Pitufos: Aprovechamiento de múltiples agentes competentes con eficiencia contextual para la planificación de herramientas ( 2024.05.09 )
Revelando disparidades en el manejo de tareas web entre humanos y agentes web ( 2024.05.07 )
¿Lista completa de artículos? ¿Para "Agente"?
InternLM-XComposer-2.5: un modelo de lenguaje de visión amplia y versátil que admite entradas y salidas contextuales largas ( 2024.07.03 )
LLaRA: Supercarga de datos de aprendizaje de robots para la política visión-lenguaje ( 2024.06.28 )
Web2Code: un marco de evaluación y conjunto de datos de página web a código a gran escala para LLM multimodales ( 2024.06.28 )
LLaVolta: Modelos multimodales eficientes mediante compresión de contexto visual por etapas ( 2024.06.28 )
Cambrian-1: una exploración totalmente abierta y centrada en la visión de LLM multimodales ( 2024.06.24 )
VoCo-LLaMA: Hacia la compresión de la visión con modelos de lenguaje grandes ( 2024.06.18 )
Más allá de LLaVA-HD: sumergirse en grandes modelos multimodales de alta resolución ( 2024.06.12 )
Un estudio empírico sobre el ajuste fino de parámetros eficientes para modelos de lenguajes grandes multimodales ( 2024.06.07 )
Aprovechamiento de tokens visuales para contextos de texto extendido en el aprendizaje multimodal ( 2024.06.04 )
DeCo: Desacoplamiento de la compresión de tokens de la abstracción semántica en modelos multimodales de lenguaje grande ( 2024.05.31 )
¿Lista completa de artículos? para "aviso multimodal"?
IncogniText: Anonimización de texto condicional que mejora la privacidad mediante aleatorización de atributos privados basada en LLM ( 2024.07.03 )
Web2Code: un marco de evaluación y conjunto de datos de página web a código a gran escala para LLM multimodales ( 2024.06.28 )
OMG-LLaVA: Uniendo el razonamiento y la comprensión a nivel de imagen, nivel de objeto y nivel de píxel ( 2024.06.27 )
Optimización adversaria de motores de búsqueda para modelos de lenguajes grandes ( 2024.06.26 )
VideoLLM-online: modelo de lenguaje grande de vídeo en línea para transmisión de vídeo ( 2024.06.17 )
La regularización de estados ocultos permite aprender un modelo de recompensa generalizable para LLM ( 2024.06.14 )
El modelo autorregresivo supera a la difusión: Llama para la generación de imágenes escalables ( 2024.06.10 )
Los modelos de lenguaje emulan ciertos perfiles cognitivos: una investigación de cómo las medidas de previsibilidad interactúan con las diferencias individuales ( 2024.06.07 )
PaCE: Ingeniería de conceptos parsimoniosa para modelos de lenguaje grandes ( 2024.06.06 )
Yuan 2.0-M32: Mezcla de expertos con enrutador de atención ( 2024.05.28 )
¿Lista completa de artículos? para "Solicitud Rápida"?
TheoremLlama: Transformación de LLM de propósito general en expertos en Lean4 ( 2024.07.03 )
Comprensión de la forma 3D de los peatones para la reidentificación de personas mediante el aprendizaje de vistas múltiples ( 2024.07.01 )
Borrado de tokens como huella de elementos de vocabulario implícito en LLM ( 2024.06.28 )
OMG-LLaVA: Uniendo el razonamiento y la comprensión a nivel de imagen, nivel de objeto y nivel de píxel ( 2024.06.27 )
Problemas fundamentales con la edición de modelos: ¿Cómo debería funcionar la revisión de creencias racionales en los LLM? ( 27.06.2024 )
Modelos mundiales eficientes con tokenización consciente del contexto ( 2024.06.27 )
La notable solidez de los LLM: ¿etapas de inferencia? ( 27.06.2024 )
ResumeAtlas: revisión de la clasificación de currículums con conjuntos de datos a gran escala y modelos de lenguaje de gran tamaño ( 2024.06.26 )
AITTI: Token inclusivo adaptativo de aprendizaje para la generación de texto a imagen ( 2024.06.18 )
Presentación de modelos de lenguaje de visión sin codificador ( 2024.06.17 )
¿Lista completa de artículos? para "Modelos de cimientos"?
Los modelos de lenguajes grandes (LLM) se están convirtiendo en una tecnología revolucionaria que está dando forma al desarrollo de nuestra era. Los desarrolladores pueden crear aplicaciones que antes solo eran posibles en nuestra imaginación mediante la creación de LLM. Sin embargo, el uso de estos LLM a menudo conlleva ciertas barreras técnicas, e incluso en la etapa introductoria, las personas pueden sentirse intimidadas por la tecnología de punta: ¿Tiene alguna pregunta como la siguiente?
Si hubiera un tutorial que pudiera ser accesible para todos los públicos, no solo para los profesionales de la informática, proporcionaría una guía detallada y completa para comenzar a operar rápidamente y en un corto período de tiempo, logrando en última instancia el objetivo de poder utilizar los LLM de manera flexible. y creativamente para construir los programas que imaginan. Y ahora, solo para usted: la guía para principiantes de Langchain más detallada y completa, extraída del sitio web oficial de langchain pero con ajustes adicionales en el contenido, acompañada de los ejemplos de código más detallados y anotados, que enseñan el código línea por línea y oración por oración. todos los públicos.
¿Haga clic aquí? para realizar un recorrido rápido sobre cómo comenzar con LLM.
Este repositorio es mantenido por EgoAlpha Lab. Se aceptan preguntas y debates a través de [email protected]
.
Estamos dispuestos a participar en debates con amigos de las comunidades académica e industrial y a explorar juntos los últimos avances en ingeniería rápida y aprendizaje en contexto.
Gracias a los estudiantes de doctorado de EgoAlpha Lab y otros trabajadores que participaron en este repositorio. Mejoraremos el proyecto en el período de seguimiento y mantendremos bien esta comunidad. También nos gustaría expresar nuestro sincero agradecimiento a los autores de los recursos relevantes. Sus esfuerzos han ampliado nuestros horizontes y nos han permitido percibir un mundo más maravilloso.