Mistral Grande 2 | Mistral AI | 123B | Mistral-Large es un modelo de lenguaje grande (LLM) denso y avanzado de parámetros 123B con capacidades de codificación, conocimiento y razonamiento de última generación. Tiene una ventana de contexto de 128k. | Blog abrazando la cara |
Llama 3.1 | Meta IA | 8B, 70B, 405B | La familia Meta Llama 3.1 de modelos de lenguaje grande (LLM) multilingües es una colección de modelos generativos previamente entrenados y sintonizados con instrucciones en tamaños 8B, 70B y 405B. Los modelos de solo texto optimizados con instrucciones de Llama 3.1 están optimizados para casos de uso de diálogo multilingüe y superan a muchos de los modelos de chat cerrado y de código abierto disponibles en los puntos de referencia comunes de la industria. Estos modelos son modelos de lenguaje autorregresivos que utilizan una arquitectura transformadora optimizada. Las versiones optimizadas utilizan ajuste fino supervisado (SFT) y aprendizaje reforzado con retroalimentación humana (RLHF) para alinearse con las preferencias humanas en cuanto a utilidad y seguridad. | Blog abrazando la cara |
Nemo Mistral | Nvidia Mistral IA | 12B | Mistral-Nemo Large Language Model es un modelo de texto generativo previamente entrenado de 12B parámetros entrenado conjuntamente por Mistral AI y NVIDIA, supera significativamente a los modelos existentes más pequeños o similares en tamaño. | Blog abrazando la cara |
Nemotrón 4 | NVIDIA | 340B | El modelo base de Nemotron 4 se preentrenó en un corpus de 9 billones de tokens que consta de una variedad diversa de textos en inglés, más de 50 idiomas naturales y más de 40 lenguajes de codificación. | abrazando la cara |
DCLM | Manzana | 7B | DCLM es un modelo de lenguaje Transformer exclusivo para decodificador. Tiene una longitud de contexto de 2048 tokens. Está entrenado con tokens de 2,5T. No se ha sometido a una alineación específica ni a ajustes de seguridad, por lo que las salidas deben utilizarse con precaución. | abrazando la cara |
gema 2 | Google | 9B 27B | Gemma 2 son modelos de lenguaje grande de texto a texto, solo decodificadores, disponibles en inglés, con pesos abiertos tanto para variantes previamente entrenadas como para variantes ajustadas por instrucciones. Los modelos Gemma son adecuados para una variedad de tareas de generación de texto, incluidas la respuesta a preguntas, el resumen y el razonamiento. | abrazando la cara |
Camaleón | Meta IA | 7B 30B | Chameleon es un modelo de base de fusión temprana de modalidad mixta de FAIR. Está disponible en 2 tamaños: 7B y 30B. | Abrazando la cara Github |
Mistral 7B v3 | Mistral AI | 7B | El modelo de lenguaje grande (LLM) Mistral-7B-v0.3 es un Mistral-7B-v0.2 con vocabulario ampliado. | Abrazando la cara Github |
Ártico (MoE denso) | Copo de nieve | 480B Activo 17B | Arctic es una arquitectura de transformador híbrido MoE denso previamente entrenado desde cero. Arctic combina un modelo de transformador denso de 10B con un MoE MLP residual de 128x3,66B. El modelo de lenguaje grande (LLM) Mistral-7B-v0.3 es un Mistral-7B-v0.2 con vocabulario extendido. Resulta en 480B en total y 17B de parámetros activos. elegido usando una puerta de los 2 primeros. | Blog de Github de HuggingFace |
llama 3 | Meta IA | 8B 70B | Llama 3 es una familia de modelos de lenguaje grandes, una colección de modelos de texto generativo previamente entrenados y ajustados con instrucciones en tamaños 8 y 70B. Es un modelo de lenguaje autorregresivo que utiliza una arquitectura transformadora optimizada. Las versiones optimizadas utilizan ajuste fino supervisado (SFT) y aprendizaje reforzado con retroalimentación humana (RLHF). | Blog de HuggingFace Github |
Visión Phi 3 | microsoft | | Phi3-3-Vision es un modelo multimodal abierto, liviano y de última generación construido sobre conjuntos de datos que incluyen datos sintéticos y sitios web filtrados disponibles públicamente, con un enfoque en datos densos de razonamiento de muy alta calidad, tanto en texto como en visión. . Tiene una longitud de contexto de 128k. | abrazando la cara |
Fi 3 | microsoft | 3.8B 7B 14B | Phi-3 es una colección de modelos. Disponible en varios tamaños: Phi3-mini, Phi3-pequeño, Phi3-medio. Es un modelo abierto liviano y de última generación entrenado con los conjuntos de datos Phi-3. Este conjunto de datos incluye tanto datos sintéticos como datos de sitios web disponibles públicamente, con énfasis en propiedades de alta calidad y de gran densidad de razonamiento. Los modelos Phi-3 son los modelos de lenguaje pequeño (SLM) más capaces y rentables disponibles. | Blog de HuggingFace |
AbrirELM | Manzana | 270M 450M 1.1B 3B | OpenELM, una familia de modelos de lenguaje eficientes de código abierto. OpenELM utiliza una estrategia de escalamiento por capas para asignar parámetros de manera eficiente dentro de cada capa del modelo del transformador, lo que lleva a una mayor precisión. Entrenado en RefinedWeb, PILE deduplicado, un subconjunto de RedPajama y un subconjunto de Dolma v1.6, por un total de aproximadamente 1,8 billones de tokens. Se lanzaron modelos preentrenados y sintonizados con instrucciones con parámetros 270M, 450M, 1.1B y 3B. | HuggingFace OpenELM HuggingFace OpenELM-Instruct |
Deepseek V2 (MoE) | búsqueda profunda | 236B Activo 21B | DeepSeek-V2 es un sólido modelo de lenguaje de mezcla de expertos (MoE) caracterizado por una capacitación económica y una inferencia eficiente. Consta de 236B de parámetros en total, de los cuales 21B se activan para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 logra un rendimiento más sólido y, mientras tanto, ahorra un 42,5 %. | Abrazando la cara Github |
Mixtral 8x22B (MoE) | Mistral AI | 176B Activo 40B | Mixtral-8x22B Large Language Model (LLM) es una mezcla dispersa generativa de expertos previamente entrenada. Tiene una longitud de contacto de 65.000 tokens. | Blog de HuggingFace |
Comando-R+ | Adherirse | 104B | C4AI Command R+ es una versión de investigación de peso abierto de un modelo de 104.000 millones de parámetros con capacidades muy avanzadas, que incluye recuperación de generación aumentada (RAG) y uso de herramientas para automatizar tareas sofisticadas. Command R+ está optimizado para una variedad de casos de uso que incluyen razonamiento, resúmenes y respuesta a preguntas. | abrazando la cara |
Jamba (MoE) | laboratorios AI21 | 52B activo 12B | Jamba es un LLM híbrido SSM-Transformer de última generación. Ofrece mejoras de rendimiento con respecto a los modelos tradicionales basados en transformadores. Es un modelo de texto generativo de mezcla de expertos (MoE) previamente entrenado, con 12 mil millones de parámetros activos y un total de 52 mil millones de parámetros entre todos los expertos. Admite una longitud de contexto de 256 KB y puede albergar hasta 140 000 tokens en una sola GPU de 80 GB. | Blog de HuggingFace |
DBRX (MoE) | Ladrillos de datos | 132B Activo 36B | DBRX es un modelo de lenguaje grande (LLM) solo decodificador basado en transformador que se entrenó mediante la predicción del siguiente token. Utiliza una arquitectura de mezcla de expertos (MoE) detallada con un total de 132 B de parámetros, de los cuales 36 B de parámetros están activos en cualquier entrada. Fue entrenado previamente con tokens de 12T de texto y datos de código. En comparación con otros modelos MoE abiertos como Mixtral-8x7B y Grok-1, DBRX es de grano fino, lo que significa que utiliza una mayor cantidad de expertos más pequeños. DBRX tiene 16 expertos y elige 4, mientras que Mixtral-8x7B y Grok-1 tienen 8 expertos y eligen 2. Esto proporciona 65 veces más combinaciones posibles de expertos, lo que mejora la calidad del modelo. | Blog de Github de HuggingFace |
Grok 1.0 (MoE) | xAI | 314B | Grok 1.0 utiliza una mezcla de 8 expertos (MoE). Grok 1.0 no está optimizado para aplicaciones específicas como el diálogo, pero muestra un rendimiento sólido en comparación con otros modelos como GPT-3.5 y Llama 2. Es más grande que GPT-3/3.5. | Github abrazando cara |
Gema | Google | 2B 7B | Gemma es una familia de modelos abiertos livianos y de última generación de Google, creados a partir de la misma investigación y tecnología utilizada para crear los modelos Gemini. Son modelos de lenguaje grande de texto a texto, solo decodificadores, disponibles en inglés, con pesos abiertos, variantes previamente entrenadas y variantes ajustadas a las instrucciones. Los modelos Gemma son adecuados para una variedad de tareas de generación de texto, incluidas la respuesta a preguntas, el resumen y el razonamiento. | Blog de HuggingFace Kaggle Github |
Gemma recurrente | Google | 2B | RecurrentGemma es una familia de modelos de lenguaje abierto construidos sobre una arquitectura recurrente novedosa. Al igual que Gemma, los modelos RecurrentGemma son adecuados para una variedad de tareas de generación de texto, incluidas la respuesta a preguntas, el resumen y el razonamiento. Debido a su novedosa arquitectura, RecurrentGemma requiere menos memoria que Gemma y logra una inferencia más rápida al generar secuencias largas. | AbrazandoCara Kaggle |
Mixtral 8x7B (MoE) | Mistral AI | 45B Activo 12B | Mixtral-8x7B Large Language Model (LLM) es una mezcla dispersa generativa de expertos previamente entrenada. El Mixtral-8x7B supera al Llama 2 70B en la mayoría de los puntos de referencia. | Blog de Kaggle |
Qwen1.5-MoE (MoE) | Alibaba | 14,3 mil millones activos 2,7 mil millones | Qwen1.5-MoE es un modelo de lenguaje solo decodificador MoE basado en transformador previamente entrenado en una gran cantidad de datos. Emplea una arquitectura de Mezcla de Expertos (MoE), donde los modelos se reciclan a partir de modelos de lenguaje denso. Tiene 14,3 mil millones de parámetros en total y 2,7 mil millones de parámetros activados durante el tiempo de ejecución, mientras logra un rendimiento comparable al Qwen1.5-7B, solo requiere el 25 % de los recursos de capacitación. | AbrazosCara |
Mistral 7B v2 | Mistral AI | 7B | Mistral 7B v2 tiene los siguientes cambios en comparación con Mistral 7B: - Ventana de contexto de 32k (frente al contexto de 8k en v0.1), Rope-theta = 1e6, sin atención de ventana deslizante. | AbrazandoCara Github |
Mistral 7B | Mistral AI | 7B | El modelo de lenguaje grande (LLM) Mistral-7B-v0.1 es un modelo de texto generativo previamente entrenado con 7 mil millones de parámetros. Mistral-7B-v0.1 supera a Llama 2 13B en la mayoría de los puntos de referencia. | Blog de Github HuggingFace Kaggle |
Llama 2 | Meta IA | 7B 13B 70B | Llama 2 es una colección de modelos de texto generativo previamente entrenados y ajustados que varían en escala de 7 mil millones a 70 mil millones de parámetros. Es un modelo de lenguaje autorregresivo que utiliza una arquitectura transformadora optimizada. Las versiones optimizadas utilizan ajuste fino supervisado (SFT) y aprendizaje reforzado con retroalimentación humana (RLHF) para alinearse con las preferencias humanas en cuanto a utilidad y seguridad. | Blog de HuggingFace Kaggle Github |
plataforma rodante v2 | Ladrillos de datos | 3B 7B 12B | Dolly v2 es un modelo de lenguaje causal creado por Databricks que se deriva de Pythia-12b de EleutherAI y se afina en un corpus de instrucciones de registros de ~15K. | AbrazandoFace Dolly3B AbrazandoFace Dolly7B AbrazandoFace Dolly12B Kaggle Github |
Comando-R | Adherirse | 35B | Command-R es una versión de investigación de un modelo generativo de alto rendimiento de 35 mil millones de parámetros. Command-R es un modelo de lenguaje grande con pesos abiertos optimizado para una variedad de casos de uso que incluyen razonamiento, resumen y respuesta a preguntas. Command-R tiene la capacidad de generación multilingüe evaluada en 10 idiomas y capacidades RAG de alto rendimiento. | AbrazandoCara Kaggle |
Qwen1.5 | Alibaba | 0,5B 1,8B 4B 7B 14B 32B 72B | Qwen1.5 es un modelo de lenguaje exclusivo de decodificador basado en transformador previamente entrenado en una gran cantidad de datos. Se basa en la arquitectura Transformer con activación SwiGLU, sesgo de atención QKV, atención de consultas grupales, combinación de atención de ventana deslizante y atención total, etc. | AbrazandoCara Github |
Vicuña v1.5 | Lysmos | 7B 13B | Vicuna v1.5 está optimizado desde Llama 2 con ajuste de instrucciones supervisado. Los datos de entrenamiento son alrededor de 125.000 conversaciones recopiladas de ShareGPT.com. El uso principal de Vicuña es la investigación de grandes modelos de lenguaje y chatbots. | AbrazandoCara Vicuña7B AbrazandoCara Vicuña13B |
fi 2 | microsoft | 2,7 mil millones | Phi-2 es un transformador con 2,7 mil millones de parámetros. Fue entrenado utilizando las mismas fuentes de datos que Phi-1.5, ampliadas con una nueva fuente de datos que consta de varios textos sintéticos de PNL y sitios web filtrados. Cuando se evaluó con puntos de referencia que prueban el sentido común, la comprensión del lenguaje y el razonamiento lógico, Phi-2 mostró un rendimiento casi de vanguardia entre los modelos con menos de 13 mil millones de parámetros. | Blog de Kaggle |
Orca 2 | microsoft | 7B 13B | Orca 2 está diseñado únicamente con fines de investigación y proporciona una respuesta de un solo turno en tareas como razonamiento sobre datos proporcionados por el usuario, comprensión de lectura, resolución de problemas matemáticos y resumen de textos. El modelo está diseñado para sobresalir particularmente en el razonamiento. El modelo no está optimizado para chat y no ha sido entrenado con RLHF o DPO. | Blog de HuggingFace |
Smaug | Ábaco IA | 34B 72B | Smaug se crea utilizando una nueva técnica de ajuste, DPO-Positive (DPOP), y nuevas versiones de preferencia por pares de ARC, HellaSwag y MetaMath (así como otros conjuntos de datos existentes). | AbrazosCara |
MPT | Mosaico | 1B 7B 30B | MPT es un transformador estilo decodificador previamente entrenado desde cero en tokens 1T de texto y código en inglés. Estos modelos utilizan una arquitectura de transformador modificada optimizada para un entrenamiento e inferencia eficientes. Estos cambios arquitectónicos incluyen implementaciones de capas con rendimiento optimizado y la eliminación de los límites de longitud del contexto mediante la sustitución de incrustaciones posicionales con Atención con sesgos lineales (ALiBi). | HuggingFace Kaggle Github |
Halcón | TL | 7B 40B 180B | Falcon es un modelo de decodificador causal de parámetros 7B/40B/180B creado por TII y entrenado en tokens 1000B/1500B/3500B de RefinedWeb mejorados con corpus seleccionados. | AbrazosCara |
Yalm | yandex | 100B | YaLM 100B es una red neuronal similar a GPT para generar y procesar texto. Está entrenado en un grupo de 800 tarjetas gráficas A100 durante 65 días. Está diseñado para la generación y procesamiento de texto. | AbrazandoCara Github |
DeciLM | DeciAI | 6B 7B | DeciLM es un modelo de generación de texto sólo decodificador. Con soporte para una longitud de secuencia de tokens de 8K, este modelo altamente eficiente utiliza atención de consultas agrupadas (GQA) variable para lograr un equilibrio superior entre precisión y eficiencia computacional. | AbrazosCara |
BERT | Google | 110M a 350M | BERT es un modelo de transformadores preentrenado en un gran corpus de datos en inglés de forma autosupervisada. Esto significa que fue entrenado previamente solo en los textos sin procesar, sin que ningún ser humano los etiquete de ninguna manera con un proceso automático para generar entradas y etiquetas a partir de esos textos. | HuggingFace Kaggle GitHub |
olmos | AllenAI | 1B 7B | OLMo es una serie de modelos de lenguaje abierto diseñados para permitir la ciencia de los modelos de lenguaje. Los modelos OLMo se entrenan en el conjunto de datos de Dolma. | AbrazandoCara Github |
Openchat3.5 | chat abierto | 7B | Openchat2.5 es el 7B LLM con mejor rendimiento. | AbrazandoCara Github |
Floración | Gran Ciencia | 176B | BLOOM es un modelo de lenguaje grande (LLM) autorregresivo, entrenado para continuar el texto desde un mensaje en grandes cantidades de datos de texto utilizando recursos computacionales a escala industrial. | AbrazosCara |
Hermes 2 Pro Mistral | Nuestra investigación | 7B | Hermes 2 Pro en Mistral 7B es el nuevo buque insignia 7B Hermes. Hermes 2 Pro es una versión mejorada y reentrenada de Nous Hermes 2, que consta de una versión actualizada y limpia del conjunto de datos OpenHermes 2.5, así como un conjunto de datos de modo JSON y llamadas a funciones recientemente introducido y desarrollado internamente. Esta nueva versión de Hermes mantiene sus excelentes capacidades generales de tareas y conversación, pero también destaca en llamadas de funciones y salidas estructuradas JSON. | AbrazosCara |
Hermes 2 Mixtral 7x8B (MoE) | Nuestra investigación | Activo 12B | Nous Hermes 2 Mixtral 8x7B DPO es el nuevo modelo insignia de Nous Research entrenado sobre el Mixtral 8x7B MoE LLM. El modelo se entrenó con más de 1.000.000 de entradas de datos generados principalmente por GPT-4, así como con otros datos de alta calidad de conjuntos de datos abiertos en todo el panorama de la IA, logrando un rendimiento de última generación en una variedad de tareas. Esta es la versión SFT + DPO de Mixtral Hermes 2. | AbrazosCara |
Merlinita | IBM | 7B | Merlinite-7b es un modelo derivado de Mistral-7b entrenado con la metodología LAB, utilizando Mixtral-8x7b-Instruct como modelo docente. | AbrazosCara |
Labradorita | IBM | 13B | Labradorite-13b es un modelo derivado de LLaMA-2-13b entrenado con la metodología LAB, utilizando Mixtral-8x7b-Instruct como modelo docente. | AbrazosCara |
xgen | fuerza de ventas | 7B | Xgen es un modelo de lenguaje grande que tiene una longitud de contexto de 8K, 4K y está optimizado para tareas de secuencia larga. | AbrazandoCara Github |
Solar | Altanero | 10,7 mil millones | SOLAR-10.7B, un modelo avanzado de lenguaje grande (LLM) con 10,7 mil millones de parámetros, que demuestra un rendimiento superior en diversas tareas de procesamiento del lenguaje natural (NLP). Es compacto, pero notablemente potente, y demuestra un rendimiento de última generación incomparable en modelos con parámetros inferiores a 30B. | AbrazosCara |
GPT-Neox | Eleuther AI | 20B | GPT-NeoX-20B es un modelo de lenguaje autorregresivo de 20 mil millones de parámetros entrenado en Pile utilizando la biblioteca GPT-NeoX. Su arquitectura se parece intencionadamente a la del GPT-3 y es casi idéntica a la del GPT-J-6B. | AbrazandoCara GitHub |
Flan-T5 | Google | 80M a 11B | FLAN-T5 es una versión modificada de T5 y tiene la misma cantidad de parámetros; estos modelos se han ajustado en más de 1000 tareas adicionales que cubren también más idiomas. Varios tamaños: flan-t5-pequeño, flan-t5-base, flan-t5-grande, flan-t5-xxl | AbrazandoCara Kaggle |
OPTAR | Meta IA | 125M a 175B | Los OPT son transformadores preentrenados solo para decodificadores que van desde parámetros de 125M a 175B. Fue preentrenado predominantemente con texto en inglés, pero una pequeña cantidad de datos que no están en inglés todavía están presentes dentro del corpus de entrenamiento a través de CommonCrawl. | AbrazosCara |
Estable LM 2 | Estabilidad IA | 1.6B 12B | Stable LM 2 son modelos de lenguaje solo decodificadores pre-entrenados en 2 billones de tokens de diversos conjuntos de datos multilingües y de código durante dos épocas. | AbrazosCara |
Estable LM Zephyr | Estabilidad IA | 3B | El modelo StableLM Zephyr 3B es un modelo de lenguaje autorregresivo basado en la arquitectura del decodificador de transformador. StableLM Zephyr 3B es un parámetro de 3 mil millones que se entrenó en una combinación de conjuntos de datos disponibles públicamente y conjuntos de datos sintéticos mediante la optimización de preferencias directas (DPO). | AbrazosCara |
aya | Adherirse | 13B | El modelo Aya es un modelo de lenguaje generativo masivamente multilingüe autorregresivo de estilo transformador que sigue instrucciones en 101 idiomas. Tiene la misma arquitectura que mt5-xxl. | Blog de Kaggle |
Nemotrón 3 | NVIDIA | 8B | Nemotron-3 son grandes modelos básicos de lenguajes para que las empresas creen LLM personalizados. Este modelo básico tiene 8 mil millones de parámetros y admite una longitud de contexto de 4096 tokens. Nemotron-3 es una familia de modelos de texto generativo listos para empresas compatibles con NVIDIA NeMo Framework. | AbrazosCara |
Chat neuronal v3 | Intel | 7B | Neural Chat es un LLM de parámetros 7B ajustado en el procesador Intel Gaudi 2 de mistralai/Mistral-7B-v0.1 en el conjunto de datos de código abierto Open-Orca/SlimOrca. El modelo se alineó utilizando el método de Optimización Directa del Rendimiento (DPO). | AbrazosCara |
yi | 01 IA | 6B 9B 34B | Los modelos de la serie Yi son la próxima generación de modelos de lenguaje grande de código abierto. Están enfocados como modelo de lenguaje bilingüe y capacitados en corpus multilingües 3T, lo que muestra promesas en comprensión del lenguaje, razonamiento de sentido común, comprensión de lectura y más. | AbrazandoCara Github |
Estornino LM | Nexusflujo | 7B | Starling LM, un modelo abierto de lenguaje grande (LLM) entrenado por Reinforcement Learning from AI Feedback (RLAIF). Starling LM se entrena desde Openchat-3.5-0106 con nuestro nuevo modelo de recompensa Starling-RM-34B y el método de optimización de políticas Fine-Tuning Language Models from Human Preferences (PPO). | AbrazosCara |
NexusRaven v2 | Nexusflujo | 13B | NexusRaven es una función de código abierto y comercialmente viable que llama LLM que supera lo último en capacidades de llamada de funciones. NexusRaven-V2 es capaz de generar llamadas a funciones profundamente anidadas, llamadas a funciones paralelas y llamadas individuales simples. También puede justificar las llamadas a funciones que generó. | AbrazosCara |
LLM en búsqueda profunda | IA de búsqueda profunda | 7B 67B | DeepSeek LLM es un modelo de lenguaje avanzado. Ha sido entrenado desde cero con un vasto conjunto de datos de 2 billones de tokens tanto en inglés como en chino. | AbrazandoCara Github |
Deepseek VL (multimodal) | IA de búsqueda profunda | 1.3B 7B | DeepSeek-VL, un modelo de visión-lenguaje (VL) de código abierto diseñado para aplicaciones de visión y comprensión del lenguaje del mundo real. DeepSeek-VL posee capacidades generales de comprensión multimodal, capaz de procesar diagramas lógicos, páginas web, reconocimiento de fórmulas, literatura científica, imágenes naturales e inteligencia incorporada en escenarios complejos. Es un codificador de visión híbrido que admite entrada de imágenes de 1024 x 1024 y está construido sobre la base DeepSeek-7b, que está entrenado en un corpus aproximado de tokens de texto 2T. | AbrazandoCara Github |
Llama 1.6 (Multimodal) | Llama HF | 7B 13B 34B | LLaVa combina un modelo de lenguaje grande previamente entrenado con un codificador de visión previamente entrenado para casos de uso de chatbot multimodal. Modelos disponibles:- Llava-v1.6-34b-hf, Llava-v1.6-Mistral-7b-hf, Llava-v1.6-Vicuña-7b-hf, Llava-v1.6-vicuña-13b-hf | Abrazando la cara Abrazando la cara |
Yi VL (multimodal) | 01 IA | 6B 34B | El modelo Yi-VL es la versión multimodal de código abierto de la serie Yi Large Language Model (LLM), que permite la comprensión y el reconocimiento de contenidos y conversaciones de múltiples rondas sobre imágenes. | AbrazandoCara YiVL6B AbrazandoCara YiVL34B |