Google ha emitido una aclaración sobre las imágenes «incómodas y equivocadas» generadas por su herramienta Gemini AI. en publicación del viernesGoogle dice que su modelo produjo imágenes «históricas inexactas» debido a problemas de ajuste. el borde Otros captaron a Gemini generando imágenes de nazis racialmente diversos y de los Padres Fundadores de Estados Unidos a principios de esta semana.
“Nos propusimos asegurarnos de que Géminis mostrara la incapacidad de un grupo de personas para interpretar situaciones que deberían ser obvias. No «Muestre la escala», escribió en la publicación Prabhakar Raghavan, vicepresidente senior de Google. «En segundo lugar, con el tiempo, el modelo se volvió más cauteloso de lo que pretendíamos, negándose a responder algunas preguntas por completo, lo que llevó a una interpretación errónea de algunos estímulos calmantes como sensibles».
Esto ha llevado a que la IA de Gemini “compense excesivamente en algunos casos”, como lo que vimos en imágenes de nazis racialmente diversos. También hace que Géminis se vuelva «demasiado conservador». Esto la llevó a negarse a crear imágenes específicas de una “persona negra” o una “persona blanca” cuando se le pedía que lo hiciera.
En la publicación del blog, Raghavan dijo que Google «lamenta que la función no haya funcionado bien». También señala que Google quiere que Gemini «funcione bien para todos» y eso significa obtener fotografías de diferentes tipos de personas (incluidas diferentes razas) cuando solicita fotografías de «jugadores de fútbol» o «personas que pasean a un perro». Pero él dice:
Sin embargo, si le pides a Géminis fotografías de cierto tipo de persona, como “un maestro negro en el aula” o “un veterinario blanco con un perro”, o personas en ciertos contextos culturales o históricos, ciertamente deberías obtener una respuesta. que refleje fielmente lo que Tú pides.
Raghavan dice que Google continuará probando las capacidades de generación de imágenes de Gemini AI y «trabajará para mejorarlas significativamente» antes de volver a habilitarlas. “Como hemos dicho desde el principio, las alucinaciones son un desafío conocido por todos los titulares de un LLM. [large language models] «Hay casos en los que la IA hace las cosas mal», señala Raghavan. «Esto es algo en lo que trabajamos constantemente para mejorar».
«Aficionado a Twitter aficionado. Experto en música. Evangelista total de la cerveza. Defensor de las redes sociales. Fanático de los zombis».
More Stories
El sucesor del Apple Vision Pro no se espera hasta finales de 2026; La empresa aún no ha encontrado una manera de reducir el coste de los auriculares.
Los usuarios de iPhone, iPad y Mac de repente se quedan sin acceso a sus dispositivos y requieren un reinicio
Se rumorea que iOS 18 revisará las aplicaciones Notas, Correo, Fotos y Fitness