La inteligencia artificial puede profundizar la desigualdad social. Aquí hay 5 maneras de ayudar a prevenir esto

por Tiberio Caetano y Bill Simpson-Young

Desde las búsquedas en Google y los sitios de citas hasta la detección de fraudes con tarjetas de crédito, la inteligencia artificial (IA) sigue encontrando nuevas formas de meterse en nuestras vidas. Pero, ¿podemos confiar en los algoritmos que la impulsan?

Como humanos, cometemos errores. Podemos tener lapsos de atención y malinterpretar la información. Sin embargo, cuando lo reevaluamos, podemos elegir nuestros errores y corregirlos.

Pero cuando un sistema de IA comete un error, se repetirá una y otra vez sin importar cuántas veces mire los mismos datos bajo las mismas circunstancias.

Los sistemas de IA se entrenan usando datos que inevitablemente reflejan el pasado. Si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

O si contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. Esto se llama “sesgo algorítmico”.

El Instituto Gradient ha sido coautor de un trabajo que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de IA y cómo pueden mitigarlo.

El trabajo se produjo en colaboración con la Comisión Australiana de Derechos Humanos, el Centro de Investigación de Políticas de Consumo, Data61 de la CSIRO y el grupo de promoción CHOICE.

¿Cómo surge el sesgo algorítmico?

El sesgo algorítmico puede surgir por la falta de datos de capacitación adecuados o como resultado de un diseño o configuración inapropiada del sistema.

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos se entrenaría típicamente utilizando un gran conjunto de datos de las decisiones de préstamo anteriores del banco (y otros datos pertinentes a los que el banco tenga acceso).

El sistema puede comparar el historial financiero, el historial de empleo y la información demográfica de un nuevo solicitante de préstamo con la información correspondiente de solicitantes anteriores. A partir de ello, trata de predecir si el nuevo solicitante podrá devolver el préstamo.

Pero este enfoque puede ser problemático. Una forma en la que podría surgir un sesgo algorítmico en esta situación es a través de los sesgos inconscientes de los administradores de préstamos que tomaron decisiones en el pasado sobre las solicitudes de hipotecas.

Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que es.

Los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidades y los obreros son sólo algunos ejemplos de los grupos que pueden estar en desventaja.

El prejuicio perjudica tanto a los individuos como a las empresas

El sistema de IA sesgado descrito anteriormente plantea dos riesgos clave para el banco.

Primero, el banco podría perder clientes potenciales, enviando a las víctimas de la parcialidad a sus competidores. También podría ser considerado responsable en virtud de las leyes antidiscriminatorias.

Si un sistema de IA aplica continuamente un sesgo inherente en sus decisiones, resulta más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede conducir a fuertes multas y sanciones.

El ahora desechado sistema de robodebt de Centrelink automáticamente elevó las deudas de bienestar contra las personas que predijo que estaban sobrepagadas. Si el beneficiario no proporcionaba pruebas de ingresos, un algoritmo generaba una cifra de ingresos quincenal para ellos mediante el promedio de los datos de que disponía la Oficina de Impuestos de Australia. Estas estimaciones tenían errores importantes.

Mitigando el sesgo algorítmico

Nuestro trabajo explora varias formas en las que puede surgir un sesgo algorítmico.

También proporciona una guía técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de IA produzcan resultados éticos que no discriminen en base a características como la raza, la edad, el sexo o la discapacidad.

Para nuestro trabajo, realizamos una simulación de un hipotético minorista de electricidad utilizando una herramienta de IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó con datos históricos ficticios compuestos por individuos ficticios.

Basándonos en nuestros resultados, identificamos cinco enfoques para corregir el sesgo algorítmico. Este conjunto de herramientas puede aplicarse a empresas de diversos sectores para ayudar a garantizar que los sistemas de IA sean justos y precisos.

  1. Obtener mejores datos

El riesgo de sesgo algorítmico puede reducirse obteniendo puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente las que están insuficientemente representadas (minorías) o las que pueden aparecer de forma inexacta en los datos existentes.

  1. 2. Procesamiento previo de los datos

Consiste en editar un conjunto de datos para enmascarar o eliminar la información sobre los atributos asociados a las protecciones de la ley antidiscriminatoria, como la raza o el género.

  1. Aumentar la complejidad del modelo

Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos preciso y conducir a generalizaciones que favorezcan a la mayoría sobre las minorías.

  1. Modificar el sistema

La lógica y los parámetros de un sistema de IA pueden ser ajustados proactivamente para contrarrestar directamente el sesgo algorítmico. Por ejemplo, esto puede hacerse estableciendo un umbral de decisión diferente para un grupo desfavorecido.

  1. Cambiar el objetivo de la predicción

La medida específica elegida para guiar un sistema de IA influye directamente en la forma en que toma decisiones en los diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo algorítmico.

La eficacia de un sistema de IA depende en gran medida de la calidad de los datos utilizados para entrenarlo.

Considere la legalidad y la moralidad

En nuestras recomendaciones a los gobiernos y empresas que deseen emplear la toma de decisiones de la IA, subrayamos ante todo la importancia de considerar los principios generales de equidad y derechos humanos al utilizar dicha tecnología. Y esto debe hacerse antes de que un sistema esté en uso.

También recomendamos que los sistemas se diseñen y prueben rigurosamente para asegurar que los resultados no estén contaminados por un sesgo algorítmico. Una vez que estén operativos, deben ser supervisados de cerca.

Por último, aconsejamos que el uso responsable y ético de los sistemas de IA va más allá del cumplimiento de la letra pequeña de la ley. También requiere que el sistema se ajuste a las normas sociales ampliamente aceptadas, y que se tenga en cuenta el impacto en las personas, las comunidades y el medio ambiente.

Con la generalización de las herramientas de toma de decisiones de la IA, ahora tenemos la oportunidad no sólo de aumentar la productividad, sino de crear una sociedad más equitativa y justa, es decir, si las utilizamos con cuidado.

Fuente: The Conversation

Acerca de

Chileno. Tecnólogo Médico,. #MangaLover #AnimeLover #HentaiAffitionado Nerd, Geek y orgulloso integrante del Partido Pirata de Chile Ⓟ.

Publicado en Random

Introduce tu dirección de correo electrónico para seguir este Blog y recibir las notificaciones de las nuevas publicaciones en tu buzón de correo electrónico.

Únete a 89 seguidores más

Follow Arcanus's Random Stuffs on WordPress.com
Sígueme
A %d blogueros les gusta esto: