Google pausa la generación de imágenes de personas en Gemini ante las protestas de usuarios por «inexactitudes históricas»

Google ha anunciado que pausará la capacidad de generación de imágenes de personas en Gemini (antes Bard) mientras soluciona problemas relativos a «inexactitudes en algunas representaciones históricas».

Esto ocurre pocos días después de que varios usuarios indicasen a la tecnológica a través de las redes sociales, de mejores o peores formas, que su IA generadora de imágenes estaba recreando personajes históricos o personas correspondientes a periodos pasados concretos de forma incorrecta.

Google pausa sus capacidades de generación de imágenes de personas

Ayer, 21 de febrero, Google decidió publicar un breve comunicado en X con el que calmar las aguas. «Somos conscientes de que Gemini ofrece inexactitudes en algunas representaciones históricas de generación de imágenesEstamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso, en general, es algo bueno porque la gente de todo el mundo lo usa. Pero aquí no da en el blanco».

No obstante, parece que esto no ha sido suficiente, ya que hace apenas unas horas la compañía ha vuelto a manifestarse en esta red social, pero esta vez para anunciar que desactivarán la función de generación de personas en su herramienta hasta solventar los problemas. «Ya estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini. Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a publicar una versión mejorada».

La IA y la diversidad, una relación compleja

Mientras que algunos usuarios se han limitado a señalar las incoherencias de las obras creadas con Gemini, destacando la importancia de reflejar momentos históricos con precisión, otros han aprovechado la viralidad del tema para lanzar mensajes dañinos y racistas.

Queda claro que existe una diferencia de intenciones entre quien indica que para crear una imagen de un soldado nazi una persona asiática no debería ser el resultado, y quienes se exaltan porque ante el prompt «mujer norteamericana» la IA ofrezca imágenes de mujeres negras, de ascendencia asiática o que simplemente no sean blancas.

La representación y la diversidad en la IA, como en todos los aspectos de la vida, son importantes. No existe un único tipo de «mujer norteamericana», y defender que sí es negar la realidad y negar a todas esas mujeres que no cumplen con el modelo que cierta gente ha decidido que es el adecuado.

Hace menos de dos años, a fin de detectar los sesgos de la IA, pusimos a prueba varias herramientas y pudimos determinar que sí presentaban sesgos de género, etnia, orientación sexual y edad. Así mismo, hace tan solo unos días repetimos el experimento, pero esta vez centrándolo en sesgos de género y sexualización. Aunque entre un artículo y otro los avances en IA han sido abismales, la diversidad sigue siendo una asignatura pendiente para esta tecnología.

Que los esfuerzos de Google por eliminar sesgos en su IA hayan desembocado en «inexactitudes históricas» debería ser algo anecdótico. Se trata de un aspecto que seguramente la tecnológica podrá corregir en breve, mientras que la intolerancia es una problemática que, demostrado queda, nos costará mucho más erradicar.

 

Mantente informado de las noticias más relevantes en nuestro canal de Telegram

Contactanos