El proyecto de inteligencia artificial Gemini de Google ha causado controversia recientemente debido a su nueva normativa interna. Según los informes, al personal subcontratado responsable de evaluar el contenido generado por Gemini se le pidió que evaluara áreas en las que no tenía experiencia, especialmente en áreas sensibles como la atención médica, lo que generó preocupaciones sobre la precisión de la información de Gemini. Este ajuste de política afecta directamente el trabajo del personal subcontratado e indirectamente afecta la calidad de la evaluación de Gemini.
Recientemente, el proyecto de inteligencia artificial Gemini de Google ha planteado preocupaciones sobre la precisión de la información debido a sus nuevas regulaciones internas. Según los informes, al personal subcontratado encargado de evaluar el contenido generado por IA se le pide que califique áreas en las que no tiene experiencia, especialmente en temas delicados como la atención médica.
Este personal subcontratado es de GlobalLogic, una empresa global de servicios tecnológicos que Google les exige evaluar las respuestas generadas por la IA, considerando principalmente factores como la "autenticidad". Anteriormente, los subcontratistas podían optar por omitir preguntas para las que no tenían experiencia relevante. Por ejemplo, podían optar por no evaluar una pregunta especializada sobre cardiología. Esto se hace para garantizar la precisión de la puntuación y que sólo personas con la formación pertinente puedan realizar evaluaciones eficaces.
Sin embargo, la semana pasada GlobalLogic anunció el último requisito de Google, según el cual los subcontratistas ya no pueden saltarse preguntas en dichas áreas de especialización, sino que deben calificar las partes que entienden y explicar su falta de conocimiento en el área relevante. El cambio provocó una preocupación generalizada entre los subcontratistas de que la práctica podría afectar la precisión de Gemini en algunos temas complejos.
Por ejemplo, algunos subcontratistas mencionaron en comunicaciones internas que la opción de omisión anterior era mejorar la precisión de la puntuación, pero la implementación de las nuevas reglas los obligó a evaluar algunos temas en los que no tenían experiencia, como las enfermedades raras. Los correos electrónicos internos muestran que la regla original era: "Si no tiene la experiencia necesaria para esta tarea, omítala". La nueva regla es: "Las indicaciones que requieren experiencia no deben omitirse. Este cambio en la política, haga que los subcontratistas". incómodo.
Según las nuevas regulaciones, los subcontratistas solo pueden saltarse las tareas de evaluación en dos situaciones: una es cuando falta información por completo, como una pregunta o respuesta completa, y la otra es cuando el contenido puede ser dañino y requiere un consentimiento especial para realizar la evaluación; Aunque estas nuevas reglas tienen como objetivo mejorar el desempeño de Gemini, pueden afectar su comprensión y retroalimentación sobre temas complejos en operaciones reales.
Google no respondió a este asunto y las preocupaciones de los subcontratistas también están aumentando gradualmente.
Destacar:
Se pide al personal subcontratado que evalúe las respuestas generadas por IA en las que no tiene experiencia, especialmente en áreas sensibles como la atención médica.
Las nuevas regulaciones eliminan la opción de "omitir" y requieren que los subcontratistas sigan puntuando incluso si carecen de experiencia.
Esta política puede afectar la precisión de Gemini en temas complejos, provocando malestar y preocupación entre el personal subcontratado.
La respuesta de Google a las nuevas regulaciones de Gemini se ha retrasado y las preocupaciones entre el personal de subcontratación continúan creciendo, lo que hace que el desarrollo futuro de Gemini enfrente nuevos desafíos. Es necesario mejorar aún más el método de evaluación de la precisión de los modelos de IA para garantizar la confiabilidad y seguridad de la tecnología de IA.