Alexandria Ocasio-Cortez dice que los algoritmos pueden ser racistas. He aquí por qué tiene razón.

  • Jacob Hoover
  • 0
  • 4997
  • 336

La semana pasada, la recién elegida representante de los Estados Unidos, Alexandria Ocasio-Cortez, fue noticia cuando dijo, como parte del cuarto evento anual MLK Now, que las tecnologías y algoritmos de reconocimiento facial "siempre tienen estas desigualdades raciales que se traducen, porque los algoritmos todavía se hacen por seres humanos, y esos algoritmos todavía están vinculados a suposiciones humanas básicas. Simplemente están automatizados. Y suposiciones automatizadas: si no corrige el sesgo, entonces simplemente está automatizando el sesgo ".

¿Significa eso que los algoritmos, que se basan teóricamente en las verdades objetivas de las matemáticas, pueden ser "racistas"? Y si es así, ¿qué se puede hacer para eliminar ese sesgo? [Las 11 ecuaciones matemáticas más bellas]

Resulta que la salida de los algoritmos puede producir resultados sesgados. Los científicos de datos dicen que los programas informáticos, las redes neuronales, los algoritmos de aprendizaje automático y la inteligencia artificial (IA) funcionan porque aprenden a comportarse a partir de los datos que reciben. El software está escrito por humanos, que tienen sesgos, y los datos de entrenamiento también son generados por humanos que tienen sesgos..

Las dos etapas del aprendizaje automático muestran cómo este sesgo puede introducirse en un proceso aparentemente automatizado. En la primera etapa, la etapa de entrenamiento, un algoritmo aprende basándose en un conjunto de datos o en ciertas reglas o restricciones. La segunda etapa es la etapa de inferencia, en la que un algoritmo aplica lo que ha aprendido en la práctica. Esta segunda etapa revela los sesgos de un algoritmo. Por ejemplo, si un algoritmo está entrenado con imágenes de solo mujeres que tienen el pelo largo, entonces pensará que cualquier persona con pelo corto es un hombre..

Google fue criticado infamemente en 2015 cuando Google Photos etiquetó a los negros como gorilas, probablemente porque esos eran los únicos seres de piel oscura en el conjunto de entrenamiento..

Y el sesgo puede infiltrarse a través de muchas vías. "Un error común es entrenar un algoritmo para hacer predicciones basadas en decisiones pasadas de humanos sesgados", dijo Sophie Searcy, científica de datos senior en el campamento de entrenamiento de ciencia de datos Metis. "Si hago un algoritmo para automatizar las decisiones tomadas previamente por un grupo de oficiales de crédito, podría tomar el camino fácil y entrenar el algoritmo sobre decisiones pasadas de esos oficiales de crédito. Pero, por supuesto, si esos oficiales de crédito fueran parciales, entonces el algoritmo que construyo continuará con esos sesgos ".

Searcy citó el ejemplo de COMPAS, una herramienta predictiva utilizada en todo el sistema de justicia penal de EE. UU. Para dictar sentencias, que trata de predecir dónde ocurrirá el delito. ProPublica realizó un análisis en COMPAS y descubrió que, después de controlar otras explicaciones estadísticas, la herramienta sobrestimó el riesgo de reincidencia para los acusados ​​negros y subestimó constantemente el riesgo para los acusados ​​blancos..

Para ayudar a combatir los sesgos algorítmicos, dijo Searcy, los ingenieros y científicos de datos deberían crear conjuntos de datos más diversos para nuevos problemas, así como tratar de comprender y mitigar el sesgo integrado en los conjuntos de datos existentes..

En primer lugar, dijo Ira Cohen, científico de datos de la empresa de análisis predictivo Anodot, los ingenieros deben tener un conjunto de capacitación con una representación relativamente uniforme de todos los tipos de población si están entrenando un algoritmo para identificar atributos étnicos o de género. "Es importante representar suficientes ejemplos de cada grupo de población, incluso si son una minoría en la población general que se examina", dijo Cohen. Por último, Cohen recomienda verificar si hay sesgos en un conjunto de pruebas que incluya personas de todos estos grupos. "Si, para una determinada carrera, la precisión es estadísticamente significativamente más baja que las otras categorías, el algoritmo puede tener un sesgo, y evaluaría los datos de entrenamiento que se utilizaron para ello", dijo Cohen a LiveScience. Por ejemplo, si el algoritmo puede identificar correctamente 900 de 1000 rostros blancos, pero detecta correctamente solo 600 de 1000 rostros asiáticos, entonces el algoritmo puede tener un sesgo "contra" los asiáticos, agregó Cohen..

Eliminar el sesgo puede ser un desafío increíble para la IA.

Incluso Google, considerado un precursor de la inteligencia artificial comercial, aparentemente no pudo encontrar una solución integral a su problema de gorilas de 2015. Wired descubrió que, en lugar de encontrar una forma para que sus algoritmos distinguieran entre personas de color y gorilas, Google simplemente bloqueó sus algoritmos de reconocimiento de imágenes para identificar gorilas en absoluto.

El ejemplo de Google es un buen recordatorio de que entrenar software de IA puede ser un ejercicio difícil, especialmente cuando el software no está siendo probado o entrenado por un grupo de personas representativo y diverso..

  • Inteligencia artificial: amistosa o aterradora?
  • Máquinas superinteligentes: 7 futuros robóticos
  • 10 nuevas y locas habilidades que los robots adquirieron en 2018

Publicado originalmente el .




Nadie ha comentado sobre este artículo todavía.

Los artículos más interesantes sobre secretos y descubrimientos. Mucha información útil sobre todo
Artículos sobre ciencia, espacio, tecnología, salud, medio ambiente, cultura e historia. Explicando miles de temas para que sepas cómo funciona todo