El Dilema del Sesgo Algorítmico: Cuando los Algoritmos Discriminan a las Minorías

En el mundo actual impulsado por datos, los algoritmos están influyendo cada vez más en varios aspectos de nuestras vidas, desde decisiones de contratación hasta aprobaciones de crédito. Sin embargo, ha surgido un problema preocupante: el sesgo algorítmico, donde estos algoritmos pueden perpetuar y amplificar los prejuicios existentes en la sociedad contra los grupos minoritarios.

El Impacto del Sesgo:

Es importante señalar que el sesgo algorítmico puede afectar no solo a minorías raciales y étnicas, sino también a otros grupos marginados, incluida la comunidad LGBTQ+. El potencial de sesgo contra individuos LGBTQ+ surge de factores similares, como la representación limitada en los datos de entrenamiento, el lenguaje sesgado en los estímulos y la aplicación de algoritmos en áreas como las decisiones de contratación y préstamo.

Es importante tener en cuenta que demostrar casos específicos de sesgo algorítmico contra la comunidad LGBTQ+ puede ser difícil debido a la naturaleza compleja de estos algoritmos y la dificultad para acceder a su funcionamiento interno. Sin embargo, la investigación sugiere un potencial de sesgo, y es crucial estar consciente de este riesgo a medida que los algoritmos se integran cada vez más en varios aspectos de nuestras vidas.

La Raíz del Problema:

Existen múltiples factores que contribuyen a este problema:

  • Desbalance de Datos: A menudo, los conjuntos de datos de entrenamiento carecen de representación diversa de grupos minoritarios. Esto puede llevar al algoritmo a «aprender» patrones basados en el grupo dominante, lo que resulta en resultados inexactos o injustos para las minorías.
  • Datos con Representación Limitada: Los datos de entrenamiento para algoritmos a menudo carecen de una representación adecuada de diversas orientaciones sexuales e identidades de género. Esto puede llevar al modelo a tomar decisiones sesgadas basadas en información incompleta o inexacta.
  • Sesgos en la Entrada y los Estímulos: La forma en que se presentan los datos y los estímulos utilizados para guiar al algoritmo también pueden estar sesgados. Por ejemplo, el uso de un lenguaje de género en las descripciones de trabajo podría favorecer involuntariamente a los candidatos masculinos. El lenguaje utilizado para describir individuos o situaciones dentro de la entrada o los estímulos del algoritmo puede perpetuar estereotipos dañinos sobre individuos LGBTQ+. Por ejemplo, el uso predominantemente heteronormativo del lenguaje en las solicitudes de vivienda podría perjudicar a las personas LGBTQ+ que buscan vivienda.
  • Sesgo Algorítmico en las Decisiones de Contratación y Préstamo: Similar a los ejemplos mencionados para minorías raciales y étnicas, los algoritmos utilizados en decisiones de contratación y préstamo podrían potencialmente discriminar a individuos LGBTQ+ al malinterpretar puntos de datos o basarse en datos de entrenamiento sesgados.

Las consecuencias del sesgo algorítmico pueden ser graves:

Contratación: Los estudios muestran que el software de reconocimiento facial utilizado en el reclutamiento puede tener una tasa de error más alta en la identificación de personas de color, lo que potencialmente conduce a prácticas de contratación injustas.

Puntuación de Crédito: El sesgo algorítmico en la puntuación de crédito puede desfavorecer a individuos de grupos minoritarios con puntajes de crédito más bajos, lo que dificulta su acceso a préstamos e hipotecas.

Seguro de Vida: Los algoritmos sesgados podrían sobreestimar el riesgo de problemas de salud para ciertos grupos, lo que lleva a primas de seguro de vida más altas o incluso a negativas de cobertura.

Combatir el Sesgo

Afortunadamente, se han tomado algunos pasos para mitigar este problema:

Diversidad de Datos: Asegurar que los conjuntos de datos de entrenamiento sean diversos y representativos de la población para la cual se utilizará el algoritmo es crucial.

Técnicas de Desbiasing: Técnicas como la ampliación de datos y los algoritmos de aprendizaje automático conscientes de la justicia pueden ayudar a identificar y abordar los sesgos en los datos.

Supervisión Humana: Implementar procesos de revisión humana junto con los algoritmos puede ayudar a detectar y corregir decisiones sesgadas.

Comenzar una regulación: En muchos países, están surgiendo regulaciones para evitar desigualdades e injusticias.

Estadísticas:

  • Un informe de 2018 de la “Algorithmic Justice League” encontró que el software de reconocimiento facial utilizado por las fuerzas del orden identificaba erróneamente a individuos negros a una tasa 10 veces mayor que a individuos blancos. Es posible ver el documental en Netflix.
  • Un estudio de 2019 realizado por el Brookings Institution encontró que un algoritmo ampliamente utilizado para la puntuación de crédito estaba sesgado contra solicitantes negros e hispanos: para prestatarios con una solvencia crediticia similar, el algoritmo predecía incumplimientos a una tasa más alta para estos grupos.
  • Una investigación de 2020 realizada por ProPublica reveló que un algoritmo utilizado por una importante aseguradora de salud en los Estados Unidos penalizaba injustamente a pacientes afrodescendientes al asignarles puntajes de riesgo más altos, lo que potencialmente llevaba a que recibieran menos atención. En 2016, investigaron un sesgo en un sistema para identificar futura criminalidad.
  • Un estudio de 2022 realizado por el Centro para la Democracia y la Tecnología encontró que los algoritmos utilizados por algunas plataformas en línea en los Estados Unidos eliminaban de manera desproporcionada el contenido creado por usuarios LGBTQ+ en comparación con el contenido de otros grupos.
  • Un documento de 2024 sobre Discriminación Racial en la Vivienda: Cómo los Propietarios Utilizan Algoritmos y Visitas a Domicilio para Evaluar a los Inquilinos destacó preocupaciones sobre el potencial sesgo algorítmico en la discriminación en la vivienda, con individuos potencialmente enfrentando mayores dificultades para asegurar vivienda debido a algoritmos sesgados utilizados por plataformas de alquiler o propietarios.

Es importante recordar que estos son solo algunos ejemplos y que la investigación sobre el sesgo algorítmico contra diversos grupos está en curso. A medida que el campo de la IA continúa evolucionando, es crucial estar informado sobre estos problemas y abogar por el desarrollo y despliegue responsables de algoritmos para prevenir una mayor discriminación.

El sesgo algorítmico es un problema complejo con graves consecuencias. 

Es crucial recordar que la discriminación en la vida real no debe replicarse en ningún lugar, y ciertamente no dentro de los sofisticados sistemas que cada vez más están dando forma a nuestro mundo. Al reconocer la existencia del sesgo algorítmico, implementar estrategias robustas de mitigación y promover la investigación y el desarrollo continuos en este campo, podemos garantizar que los algoritmos se utilicen ética y justamente, beneficiando a todos, independientemente de su origen.

 

Si crees que has sido discriminado debido a sesgos algorítmicos, GayLawyers, la división LGBTQ+ de Giambrone & Partners, puede asesorarte y guiarte. Entendemos las complejidades de este problema y estamos comprometidos a luchar por tus derechos.

Cynthia Cortés Castillo, Digital Marketing Executive

Contáctenos