12 mayo, 2020

Sesgo en el uso de la Inteligencia Artificial

Sharing is caring!

Recientemente, este tema ha salido comentado en diferentes medios digitales y el cómo ha afectado en diversas áreas tales como: la economía, la sociedad y la tecnología, por mencionar solo tres casos, en donde, se señalan los diferentes tipos de problemas que han surgido debido a esta situación. Sin embargo, este problema se puede tratar de forma diferente, e inclusive, benéfica tanto para las empresas y la tecnología.

Para poder comentar esta idea apropiadamente, primero se explicará de forma sencilla qué es el sesgo, su relación con la inteligencia artificial y el panorama general de los problemas que han surgido debido a esta situación.

¿Qué es el sesgo?

Una definición sencilla es cuando se selecciona solo un conjunto de datos que no representa realmente la totalidad de donde se extrajo. Analicemos esta definición mediante el siguiente ejemplo.

Un maestro tiene 20 alumnos en su clase, todos con diferente nivel académico y los categoriza de la siguiente manera: alto rendimiento (azul), mediano rendimiento (gris) y bajo rendimiento (negro). Ver la siguiente figura.

Posteriormente, este docente recibe la noticia que en la escuela va a haber inspección y se requiere que una muestra de su grupo, a lo cual, selecciona solo los estudiantes de alto rendimiento para dar una buena impresión de su trabajo. La pregunta es: ¿Estos seis alumnos reflejan la totalidad y veracidad del nivel académico de su salón? ¿El maestro fue imparcial en su selección? Claro que no. Esta situación anterior es a la que se llama sesgo en la información o sesgo en una muestra.

¿Cómo se relaciona los datos con la Inteligencia Artificial?

Dentro de las ciencias computacionales se encuentra la especialidad de la Inteligencia Artificial, la cual, posee un amplio abanico de herramientas matemáticas. Dentro de estas herramientas, algunas de ellas tienen la posibilidad de clasificar. 

Para lograr dicho objetivo se usan principalmente dos elementos; el primero, es el aprendizaje máquina el cual consiste en enseñar a dicha herramienta mediante ejemplos hasta lograr dicha clasificación de forma apropiada; el segundo elemento, son los datos que son usados como ejemplos por el elemento anterior.

Para clarificar este proceso y tener una mejor comprensión, re usaremos la imagen anterior con los elementos antes mencionados con algunas modificaciones  explicando el proceso ordenadamente.

  1. Ahora, cada persona representa un ejemplo y es usada para entrenar la herramienta computacional. Durante este proceso se presenta un dato a la vez.
  2. La herramienta computacional inspecciona cada caso y lo procesa para poder clasificarla.
  3. Una vez procesada, se aparta del conjunto original para procesar el siguiente dato.

Este proceso se repite  con todos los datos y tantas veces como sea necesario hasta lograr el correcto funcionamiento de dicha herramienta.

Entonces, ¿Cuándo ocurre el Sesgo en la Inteligencia Artificial?

Dicho de forma sencilla, el sesgo ocurre cuando no se incluye un grupo de datos para entrenar a la herramienta. Por ejemplo, si en este caso solo se usaran los datos representados por los colores gris y azul, pero los de color negro no. 

¿Qué ha ocasionado este sesgo? 

Algunos casos publicados han sido:

  • En marzo del 2018, un automóvil de la empresa Uber en modo autónomo arrolló a una ciclista  que caminó fuera del paso peatonal por la noche.
  • En mayo del 2016, un automóvil Tesla  en piloto automático  que iba a exceso de velocidad debido al conductor se impactó con un remolque de un camión.
  • En abril del 2019, se reportó un caso en una escuela de medicina de Londres donde los estudiantes hacían sus solicitudes para entrar a dicha escuela. El proceso de evaluación y aceptación estaba a cargo de un algoritmo implementado por dicha institución.  Al pasar un par de años y  después de un  proceso legal,  se encontró que algunas personas eran excluidas u obtenían una baja valoración debido a su raza o género.
  • En el 2014, Amazon construyó un sistema de Inteligencia Artificial para clasificar a sus aspirantes de un empleo en dicha empresa. Se usaron 10 años de experiencia de la compañía  para construirlo. Después de un año, se percataron que la herramienta discriminaba a las mujeres candidatas para desarrollo de software u otros puestos técnicos.
  • En junio del 2015, se reportó que la Inteligencia Artificial de Google no podía  distinguir una persona de tez oscura de gorilas o chimpancés.

¿Qué se ha hecho para solucionar este sesgo? 

Algunas de las soluciones por el momento:

  • El Instituto Tecnológico de Massachusetts (MIT) creó una serie de pasos para evaluar si los datos estaban sesgados o no. Al ser implementado este proceso, los resultados redujeron el sesgo hasta en un  60 %..
  • En la declaración de Montreal se anunciaron 10 principios para el desarrollo responsable de la Inteligencia Artificial, dentro  de los cuales destacan: el principio de bienestar, principio de equidad y principio de responsabilidad, donde este último hace responsables a las personas del buen uso de estas herramientas computacionales.
  • Dos años después del incidente mencionado, Google arregló el problema para no confundir a humanos con  gorilas.

Algunos pensamientos a compartir…

  • Tal como lo comenta Ian Sommerville en su libro de Ingeniería de Software “Nunca se puede tener la certeza de que un sistema de software esté libre de fallas de desarrollo”.
  • Con esta situación, se descubrió una falla no prevista o detectada anteriormente.
  • Varias instituciones y autoridades en el ramo están aportando lineamientos o soluciones nuevas para reducir o prevenir este problema.
  • Con cada falla que se encuentre, mejor será su rendimiento en el futuro.
  • Por su parte, las empresas que usan sistemas de Inteligencia Artificial para el reclutamiento de personal pueden hacer un análisis para revisar si sus prácticas de reclutamiento son imparciales o no, que tanto les afecta o perjudica, revisar nuevamente si su forma de proceder es la correcta, y finalmente, tener la posibilidad de mejorar sus procesos de reclutamiento.
  • Debido a esta situación de seguridad y con el fin de evitar accidentes futuros, las compañías que implementan pilotos automáticos o autónomos tienen una  vital  área de trabajo que revisar  y trabajar en sus productos con el fin de evitar accidentes de este tipo, e inclusive,  en un futuro, la seguridad de sus productos puede ser un distintivo o diferenciador en el mercado.
  • En la declaración de Montreal se hace un recordatorio a nivel mundial que  el uso apropiado y correcto de los aparatos, dispositivos y máquinas es responsabilidad de las personas principalmente

Finalmente, ¿Qué opinas? ¿Hacia dónde se inclina la balanza en esta situación? ¿Gustas comentar alguna situación en lo particular con respecto a este tema? Háznosla saber para profundizar o enriquecer el tema.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

CONTÁCTANOS