OpenAI está a punto de lanzar una importante actualización de ChatGPT: el servicio ChatGPT Pro con un precio de 200 dólares estadounidenses al mes, y planea lanzar un nuevo modelo "fresa" en las próximas dos semanas. El núcleo de este modelo radica en su método de razonamiento único, que realizará entre 10 y 20 segundos de pensamiento y recuperación de información antes de responder una pregunta para mejorar la eficiencia de la utilización de la potencia informática de la IA y generar contenido más preciso. Aunque actualmente solo admite el procesamiento de textos, sus intentos innovadores de imitar los procesos de pensamiento humano merecen atención.
OpenAI está a punto de traer una actualización importante a ChatGPT. Se informa que ChatGPT Pro, con un precio de 200 dólares estadounidenses al mes, se lanzó oficialmente. Aunque aún no se han introducido nuevas características o modelos, los usuarios pueden esperar experimentar el nuevo modelo fresa en las próximas dos semanas. Este modelo de IA de alto perfil no solo brindará un poderoso soporte técnico para ChatGPT, sino que también atraerá la atención de la industria con su método de razonamiento único.
La característica principal del modelo de la fresa es su capacidad para imitar el proceso de pensamiento humano. Puede pasar de 10 a 20 segundos pensando y recuperando información antes de dar una respuesta. Este innovador método de procesamiento está diseñado para mejorar la eficiencia de la utilización de la potencia informática de la IA y así generar contenido más preciso.
Sin embargo, vale la pena señalar que el modelo fresa solo admite el procesamiento de texto en la etapa inicial y aún no tiene las capacidades de procesamiento de imágenes y audio de GPT-4.
De hecho, esta tecnología de ampliación del tiempo de inferencia y ajuste adaptativo no es la primera de su tipo en OpenAI. Google DeepMind ya ha realizado investigaciones en profundidad en este campo y ha publicado artículos relevantes. Los investigadores descubrieron que a través de la tecnología informática en tiempo de prueba, el rendimiento de los modelos de lenguaje grandes se puede mejorar significativamente, superando las limitaciones de los modelos actuales en el entrenamiento de conjuntos de datos y los recursos informáticos de inferencia.
Hay dos tipos principales de estrategias de optimización para el modelo de fresa. El primer tipo se basa en un modelo de recompensa de verificación intensivo y orientado a procesos, que requiere que el modelo no solo genere resultados, sino que también proporcione un proceso de razonamiento lógico, que es especialmente adecuado para tareas complejas de razonamiento matemático y lógico.
La segunda estrategia es ajustar dinámicamente las respuestas posteriores en función del contenido generado previamente y optimizar continuamente la calidad de salida a través de múltiples rondas de iteración. La estrategia de optimización del cálculo propuesta por los investigadores tiene como objetivo seleccionar el método de cálculo del tiempo de prueba más apropiado según la situación específica, lo que mejora significativamente la eficiencia del cálculo.
Sin embargo, el modelo de la fresa también enfrenta algunos desafíos. Aunque es excelente para reducir errores y alucinaciones, los tiempos de respuesta de 10 a 20 segundos pueden afectar la experiencia del usuario. Los usuarios de la prueba han comentado que estas respuestas un poco más precisas no parecen ser suficientes para compensar los tiempos de espera más prolongados.
Además, como las capacidades avanzadas pueden conducir a un mayor consumo de recursos informáticos, los costos de uso también pueden aumentar. Para equilibrar la experiencia del usuario y el consumo de recursos, OpenAI puede establecer un límite superior en la frecuencia de envío de mensajes y considerar lanzar paquetes de mayor precio para proporcionar tiempos de respuesta más rápidos.
En general, el modelo "Strawberry" representa un intento útil de OpenAI para mejorar la precisión y las capacidades de razonamiento de los modelos de lenguaje grandes, pero su tiempo de respuesta de 10 a 20 segundos y sus posibles problemas de costos aún requieren más observación y mejora. Su éxito futuro depende de si OpenAI puede equilibrar eficazmente la relación entre precisión, velocidad y costo.