Vivimos en un mundo donde los algoritmos complejos y la inteligencia artificial interactiva nos ayudan a planear nuestras agendas y a llegar de un lugar a otro.
Sin embargo, según un nuevo estudio de la Universidad de Princeton, algunos ingenieros están colando el racismo y sexismo de los humanos en la inteligencia artificial.
El estudio publicado en la revista Science fue realizado por Aylin Caliskan, Joanna J. Bryson y Arvind Narayanan. Los autores se enfocaron en el aprendizaje automático, el proceso de pensamiento que los programas de inteligencia artificial generan mediante las asociaciones basadas en la observación de patrones en cantidades masivas de datos. En un espacio neutral, la inteligencia artificial aprendería a dar respuestas basadas en datos objetivos. Sin embargo, la inteligencia artificial desarrolla ciertos prejuicios por el hecho de que los datos que recibe son seleccionados e influidos por humanos. En pocas palabras, la dieta de los programas ya viene sesgada.
Caliskan y su equipo crearon su propia versión del Examen de Asociación Implícita, un ejercicio que pide a los participantes asociar ideas concretas como las personas que no son blancas y las mujeres con conceptos abstractos como el mal y el bien. Puedes tomar el examen haciendo click aquí.
Los exámenes se han administrado en el pasado para medir cómo ciertas personas asocian los afroamericanos con el crimen o las mujeres con el trabajo doméstico. Estos exámenes nos pueden dar un mejor conocimiento de las características del ser humano. Sin embargo, los resultados de una persona pueden variar en diferentes exámenes. Es decir, la persona tendría que tomar los exámenes cientos de veces para generar resultados o promedios más precisos. Eso no es un problema para los programas de inteligencia artificial ya que pueden consumir datos mucho más rápido que el ser humano y dan mucho más pistas sobre cómo llegaron a sus conclusiones.
El equipo de Caliskan encontró que los programas de inteligencia artificial tienden a copiar las asociaciones racistas y sexistas ya que absorben texto que está lleno de prejuicios humanos. Por ejemplo, los programas de inteligencia artificial que se estudiaron tienden a establecer asociaciones entre afroamericanos y connotaciones negativas. Los resultados podrían parecer inofensivos dentro de un laboratorio pero debemos tomar en cuenta que los programas de inteligencia artificial ya están siendo utilizados para filtrar solicitudes de empleo. Esto podría tener repercusiones para las comunidades marginadas.
En la descripción de su metodología Caliskan insiste que estos problemas se encuentran en el aprendizaje de las las máquinas. Sin embargo, dice que existen soluciones para implementar en el futuro. Se podrían contratar a más desarrolladores de inteligencia artificial que no son blancos y/o a mujeres que son más conscientes de los prejuicios para ayudar a disminuir las incidencias de racismo o sexismo. Caliskan también dijo que se necesita más transparencia en el proceso de enseñanza de estas máquinas.
“La mayoría de los expertos y comentaristas recomiendan que la inteligencia artificial se debería aplicar de manera transparente y sin prejuicios. El código del algoritmo tanto como el proceso de su aplicación tienen que estar abiertos al público”, explicó Caliskan. “La transparencia le debería permitir a las cortes, empresas, ciudadanos vigilantes y a otros entender, monitorear y sugerir modificaciones para los algoritmos”.