La Inteligencia Artificial y los sesgos humanos

 En Inteligencia Artificial

En la entrada anterior, hablábamos sobre cómo las máquinas, hoy en día, son capaces de ver gracias a la Visión Computacional y su multitud de aplicaciones.

En esta ocasión, posponemos el artículo sobre Machine y Deep Learning para hablar sobre los sesgos que afectan a la IA y que generan situaciones muy polémicas.

Es incuestionable afirmar que la Inteligencia Artificial se ha visto envuelta en numerosas controversias, ya que es fácilmente manipulable, es decir, es ingenua: es posible enseñar a un modelo que todo animal con forma de gato es un perro y así lo aprenderá. Además, es inocente, ya que no cuestiona la veracidad, exactitud o fiabilidad de la información que recibe, sino que simplemente intenta obtener el máximo rendimiento de ella.

Esto es así porque los modelos actuales no tienen consciencia (paradigma de la IA suave del que ya hablamos). La IA fuerte, teóricamente, debería permitir que un modelo pueda dudar de la información que recibe y tomar sus propias decisiones a partir de ella. Es decir, un modelo de IA fuerte no podría ser engañado con la misiva de que todo animal con forma de gato fuera un perro, ya que, además de la propia información que recibe, estaría dotado de fuentes externas e independientes para corroborarla.

La naturaleza inocente e ingenua de estos programas hoy en día puede aprovecharse para bien, pero también para mal. Si quisiéramos crear un modelo de predicción de peligrosidad de perros según su peso, podríamos dictaminar que todo canino superior a los 20kg de peso es considerado potencialmente peligroso. Esta clasificación tiene sentido cuando hablamos de razas como las derivadas del Bull Terrier o del Rottweiler (evidentemente, todo depende de la educación que estas mascotas reciban): son perros que pesan más de 20 kg. Sin embargo, también hay razas que pesan más del límite establecido como un Golden Retriever o un Pastor Alemán, pero no son razas agresivas por naturaleza. El problema es que nuestro modelo de Inteligencia Artificial esto no lo sabe y siempre se va a fijar en el peso del canino. Si pesa más de 20kg, lo considerará como potencialmente peligroso, llevando a cabo un proceso discriminatorio.

Esta situación es debida a los propios sesgos del analista. Si el programador del modelo hubiera elegido más variables para realizar la clasificación anteriormente mencionada como, por ejemplo, las razas de cruce de la mascota, tipo y origen de educación o su lugar de residencia, el modelo habría sido más certero y no catalogaría a un Golden Retriever como animal potencialmente peligroso.

Un ejemplo crítico de estos sesgos que hemos comentado fue el que protagonizó Amazon el pasado mes de noviembre cuando anunció que iba a detener el desarrollo de su herramienta para reclutamiento por la discriminación de los modelos hacia las mujeres. En un estudio posterior, se determinó que el problema fue que los propios desarrolladores indujeron sesgos no intencionados a estos modelos, corroborando la idea de que la neutralidad de la Inteligencia Artificial es imposible a menos que sus desarrolladores no lo sean o que las personas que lo utilizan (porque estos modelos evolucionan con las interacciones con otras personas) no lo sean.

Un ejemplo de sesgo no intencionado es el siguiente: Supongamos que queremos crear un modelo que permita determinar si un candidato es bueno o no para nuestra empresa basándonos en los trabajadores que ya están dentro de ella. Supongamos también que el 90% de esa plantilla está compuesta por hombres y el 10% restante, de mujeres. Todo modelo es vago por naturaleza, así que va a intentar simplificar la información que recibe a fin de realizar la predicción de la forma más rápida posible. Por tanto, la información relativa a las mujeres, como suponen un 10% de la totalidad, va a ser interpretada como ruido y será descartada. Por tanto, el modelo sólo va a conocer información sobre hombres, porque sus propios mecanismos de optimización han descartado el ruido y el modelo no sabrá que hay mujeres en la empresa. Más tarde, cuando se utilice el modelo en un entorno real, siempre descartará a las mujeres y escogerá a los hombres.

Esta situación, con unos porcentajes no tan significativos y dispares (los hemos seleccionado para que el ejemplo se vea más claro), fue la que se produjo en el caso de Amazon, donde el propio sesgo provenía del balance de la información.

Empresas como Google y Microsoft también se han visto envueltas en problemas de discriminación, pero en el ámbito de la orientación sexual y racial.

Todos estos problemas fueron denunciados por GLAAD, que es una organización sin ánimo de lucro dedicada a promover imágenes veraces y objetivas de la comunidad LGTBIQ+ en los medios de comunicación (y recientemente también en el mundo de la Inteligencia Artificial) para eliminar la discriminación basada en la identidad de género y en la orientación sexual.

La Inteligencia Artificial no será un éxito completo hasta que no haya situaciones de discriminación por cuestión de razas, creencias religiosas, pensamiento, identificación de género u orientación sexual.

El Libro Blanco de la IA del que hablamos hace algunas entradas ya trata estos temas y establece que bajo ningún concepto una inteligencia autónoma puede atentar contra la dignidad, libertad o los derechos de las personas. Este documento también legisla las obligaciones de los profesionales en el sector, que deben ser conscientes para no inducir sesgos a los modelos.

La libertad individual es inquebrantable e incuestionable, y ningún programa informático, sea o no de Inteligencia Artificial, puede cuestionarla y valorarla.

 

Autor: Carlos Vázquez, Data Scientist | AI Engineer en Avansis

Presiona ENTER para comenzar la búsqueda en Avansis