Cuenta Elizabeth Laraki en Twitter lo que le sucedió cuando los organizadores de una conferencia de UX+AI le pidieron una foto para usar en los anuncios del evento. Debido a una serie de circunstancias en la foto acabó con una blusa desabotonada y enseñando ropa interior en vez de con su propia camisa. La culpable tras la investigación: una IA generativa.
Como Laraki conocía bien cómo era su propio retrato, que había usado otras veces, se extrañó mucho al ver el resultado y el sugerente cambio de ropa, donde no solo aparecía más desabotonada y con escote sino además sugiriendo ropa interior y con una especie de «tirantez» en los botones. Pidió explicaciones y, tras una investigación, se la dieron.
Al parecer para el anuncio necesitaban la foto con un poco más de altura, de modo que la pasaron por una IA generativa, con tan mala suerte que al hacer la que debería ser una operación totalmente neutral en cuanto al aspecto de la persona… a la IA se le coló la ropa y todo lo que había del cuello para abajo. El resultado fue que la IA se inventó cómo debía ser la vestimenta en base al resto de la imagen.
La moraleja que se puede extraer es un ejemplo más del sesgo en los modelos de IA generativa, que aunque tienen todo tipo de medidas de «seguridad» para no resultar racistas, sexistas ni inapropiados en ninguna forma se están olvidando de sutilezas como estas. Como dicen los comentaristas, parece que los retratos de mujer deban ir con camisas sin botones, más «sexualizadas» y enseñando ropa interior. No hace falta recordar que todo depende de cómo se hayan entrenado esos modelos, y por mucho que se intente, es difícil deshacerse de los tópicos.