
En un experimento reciente pedí a una inteligencia artificial (IA) que generara imágenes de presos en diferentes contextos: presos en una celda y presos en un patio de prisión. El objetivo era explorar cómo la IA representa visualmente a personas en prisión. Sin embargo, el resultado fue alarmante: de las más de 100 personas generadas, la totalidad eran negras. Este hecho no solo es preocupante, sino que constituye una injusticia grave que perpetúa estereotipos racistas y refuerza narrativas dañinas.
El experimento: Una mirada a las imágenes generadas
En mi primera solicitud, pedí "una foto de 6 presos en una celda". La IA generó dos imágenes, cada una con 6 personas, todas negras. Luego, solicité "una foto de 4 presos en una celda", y nuevamente, las dos imágenes generadas mostraron 4 personas negras en cada una. Tras varias peticiones más, finalmente pedí "una foto de 10 presos en un patio de prisión", y la imágenes resultantes mostraron 10 personas, todas negras. En total, más de 100 personas generadas, todas de raza negra.
No especifiqué raza o etnia en los prompts, lo que hace aún más evidente el sesgo implícito del modelo de generación de imágenes. Este patrón no es casualidad: refleja un problema sistémico en cómo las IAs son entrenadas y cómo reproducen desigualdades históricas.
El problema del sesgo en la IA
El hecho de que las más de 100 personas generadas sean negras no es un reflejo de la realidad, sino de un sesgo en los datos con los que se entrenan estos modelos de IA. Estas herramientas suelen basarse en imágenes y datos históricos que ya están sesgados, como representaciones mediáticas que asocian a las personas negras con la criminalidad. Al no corregir estos sesgos, la IA los amplifica, perpetuando estereotipos racistas.
Esto es injusto y peligroso. Las imágenes generadas no solo refuerzan narrativas que estigmatizan a las comunidades negras, sino que también invisibilizan la diversidad de las personas en prisión. ¿Dónde están los presos blancos, latinos o asiáticos? La falta de representación diversa contribuye a una visión distorsionada de la realidad y alimenta prejuicios sociales.
Este experimento pone en evidencia la necesidad urgente de abordar los sesgos en la IA. Los desarrolladores de estas tecnologías deben:
1. Entrenar modelos con datos más diversos y representativos: Los datos de entrenamiento deben reflejar la realidad de manera equitativa, incluyendo personas de todas las razas y etnias en contextos carcelarios.
2. Implementar mecanismos de corrección de sesgos: Los algoritmos deben ser diseñados para evitar la reproducción de estereotipos, incluso si los datos de entrenamiento están sesgados.
3. Fomentar la transparencia y la rendición de cuentas: Las empresas que desarrollan IA deben ser abiertas sobre cómo abordan estos problemas y trabajar con comunidades afectadas para corregirlos.
Como usuarios, también podemos exigir responsabilidad. Si notamos sesgos en las herramientas que utilizamos, debemos denunciarlos y presionar por cambios. La IA tiene el potencial de ser una herramienta poderosa, pero solo si se utiliza de manera ética y justa.