Para 2024, se espera que las empresas gasten 500 mil millones de dólares anualmente en inteligencia artificial (IA), según la Corporación Internacional de Datos (IDC).
Esta previsión tiene amplias implicaciones socioeconómicas porque, Fo negocios, la IA es transformadora—según un reciente El estudio McKinseySe espera que las organizaciones que implementan aplicaciones basadas en IA aumenten el flujo de efectivo en un 120 % para 2030.
Pero la implementación de la IA conlleva desafíos únicos. Para los consumidores, por ejemplo, la IA puede amplificar y perpetuar sesgos preexistentes—y hacerlo a escala. Cathy O’Neilun destacado defensor de la equidad algorítmica de la IA, destacó tres efectos negativos de la IA en los consumidores:
- Opacidad. La inteligencia artificial es una caja negra para muchos consumidores: la mayoría no tiene idea de cómo funciona.
- Escala. La IA a menudo produce resultados sesgados que pueden replicarse en una clase más amplia de grupos protegidos.
- Deteriorarse. Los resultados sesgados de la IA aún no se han contrarrestado con un remedio efectivo y confiable para reclamar daños y perjuicios.
Realmente, una encuesta PEW encontró que el 58 por ciento de los estadounidenses cree que los programas de IA amplifican cierto nivel de sesgo, lo que revela un trasfondo de escepticismo sobre la confiabilidad de la IA. Las preocupaciones sobre la equidad de la IA están muy extendidas reconocimiento facial, Justicia penal, prácticas de empleo y aprobaciones de préstamos—donde se ha demostrado que los algoritmos de IA producen resultados negativos, impactando desproporcionadamente a los grupos marginados.
Pero lo que se puede considerar correcto—ya que la equidad es la base de una IA confiable? Para las empresas, esta es la pregunta del millón.
Definición de la corrección de la IA
El crecimiento cada vez mayor de la IA destaca la importancia vital de equilibrar su utilidad con la equidad de sus resultados, creando así una cultura de IA confiable.
Intuitivamente, la equidad parece un concepto simple: la equidad está estrechamente relacionada con el juego limpio, donde todos son tratados de manera similar. Sin embargo, la equidad incorpora múltiples dimensiones, como las compensaciones entre la precisión algorítmica y los valores humanos, la paridad demográfica frente a los resultados de las políticas y cuestiones fundamentales centradas en el poder, como quién decide qué es justo.
Hay cinco desafíos asociados con la contextualización y el cumplimiento de la equidad en los sistemas de IA:
1. La equidad puede verse influenciada por fronteras culturales, sociológicas, económicas y legales.
En otras palabras, lo que puede considerarse «justo» en una cultura puede ser percibido como «injusto» en otra.
Por ejemplo, en un contexto legal, la equidad significa un juicio justo y el estado de derecho mediante el cual las disputas se resuelven con cierto grado de certeza. La equidad, en este contexto, no depende necesariamente de la decisión resultado—sino sobre el proceso por el cual los tomadores de decisiones llegar esos resultados (y qué tan cerca ese proceso se adhiere a los estándares legales aceptados).
Existen, sin embargo, otras situaciones en las que es necesaria la aplicación de la «equidad correctiva». Por ejemplo, para remediar las prácticas discriminatorias en los préstamos, la vivienda, la educación y el empleo, la equidad se trata menos de tratar a todos por igual y más de la acción afirmativa. Por lo tanto, reclutar un equipo para implementar una implementación de IA puede resultar un desafío en términos de equidad y diversidad. (Lea también: 5 habilidades cruciales que se requieren para implementaciones exitosas de IA).
2. Justicia e igualdad no son necesariamente lo mismo.
La igualdad es considerada como un derecho humano fundamental– nadie debe ser discriminado por motivos de raza, sexo, nacionalidad, discapacidad u orientación sexual. Si bien la ley protege contra trato dispar— cuando los individuos en una clase protegida son intencionalmente tratados de manera diferente—Los algoritmos de IA todavía pueden producir resultados con un impacto dispar-Cuando Las variables, que son neutrales en su sesgo, causan una discriminación no intencionada.
Para ilustrar cómo se produce el impacto dispar, considere Amazon entrega el mismo día Servicio. Se basa en un algoritmo de IA que utiliza atributos—como la distancia al centro de distribución más cercano, la demanda local en áreas de código postal designadas y la distribución de frecuencia de los miembros principales—para determinar ubicaciones rentables para la entrega gratuita el mismo día. También se descubrió que el servicio de entrega en el mismo día de Amazon estaba sesgado contra las personas de color.—a pesar de que la raza no fue un factor en el algoritmo de IA. ¿Cómo? Era menos probable que el algoritmo considerara los códigos postales predominantemente ocupados por personas de color como ubicaciones ventajosas para ofrecer el servicio. (Lea también: ¿Puede la IA estar sesgada?)
3. La equidad grupal y la equidad individual requieren estrategias diferentes.
La ambición de la equidad grupal es garantizar que los resultados de la IA algorítmica no discriminen a los miembros de grupos protegidos en función de la demografía, el género o la raza. Por ejemplo, en el contexto de las solicitudes de crédito, todos deberían tener la misma probabilidad de recibir un buen puntaje crediticio, lo que resulta en una paridad predictiva independientemente de las variables demográficas.
Por otro lado, los algoritmos de IA enfocados en la equidad individual se esfuerzan por crear resultados que sean consistentes entre individuos con atributos similares. En otras palabras, el modelo debe tratar casos similares de manera similar.
4. La paridad estadística debe equilibrarse con resultados de equidad.
En este contexto, la equidad engloba consideraciones políticas y jurídicas y nos hace preguntarnos: “¿Qué Está ¿correcto?»
Por ejemplo, en el contexto de las prácticas laborales, ¿cuál debería ser un porcentaje justo de mujeres en puestos gerenciales? En otras palabras, ¿qué porcentaje deberían incorporar los algoritmos de IA como umbrales para promover la paridad de género? (Lea también: Cómo la tecnología está ayudando a las empresas a lograr sus objetivos DEI en 2022).
5. La justicia implica cuestiones de poder.
Antes de que podamos decidir lo que es correcto, debemos decidir quien decide que. Y tal como es, la definición de equidad es simplemente lo que aquellos que ya están en el poder deben ser para mantener ese poder.
Ciencia de datos responsable e IA confiable
Debido a que existen muchas interpretaciones de corrección, los científicos deben considerar incorporar restricciones de corrección en el contexto de casos de uso específicos y para los resultados deseados. Ciencia de datos responsable (RDS) es una disciplina influyente en la configuración de las mejores prácticas para una IA confiable y facilitar la corrección de la IA.
RDS proporciona un marco sólido para el diseño ético de sistemas de IA que aborda las siguientes áreas clave:
- Resultados imparciales aplicando restricciones de corrección correspondientes a los datos de entrenamiento.
- Resultados algorítmicos interpretado de manera significativa para los usuarios finales.
- Resiliencia en cómo los sistemas de IA brindan resultados precisos y responden a las entradas cambiantes.
- Responsabilidad para los resultados del sistema; y
- Defensa de la Privacidad de datos de entrenamiento a través de medidas de mejora de la privacidad.
Confíe en la minería de procesos consciente para garantizar la corrección de la IA
Si bien RDS proporciona la base para establecer un diseño ético de IA, las organizaciones tienen el desafío de examinar cómo se implementan y, cuando es necesario, se solucionan estas consideraciones complejas de equidad. Esto les ayudará a mitigar los posibles riesgos de cumplimiento y de reputación, en particular en lo que se refiere a el impulso para la regulación de la IA se está acelerando.
Las obligaciones de cumplimiento en virtud de los marcos normativos de la IA están inherentemente fragmentadas—que abarca el gobierno de datos, las pruebas de cumplimiento, la garantía de calidad de los comportamientos del modelo de IA, la transparencia, la responsabilidad y las actividades del proceso de privacidad. Estos procesos involucran múltiples pasos en sistemas dispares, transferencias, repeticiones y supervisión humana en bucle entre múltiples partes interesadas: equipos de TI, legales, de cumplimiento, de seguridad y de servicio al cliente.
La minería de procesos es un campo en rápido crecimiento que proporciona un enfoque basado en datos para descubrir cómo funcionan los procesos de cumplimiento de IA existentes para diversos participantes del proceso y sistemas de registro dispares. Es una disciplina de la ciencia de datos que respalda el análisis en profundidad de cómo funcionan los procesos actuales e identifica las variaciones, los cuellos de botella y las áreas superficiales del proceso para la optimización del proceso.
¿Quién tiene interés en cumplir con las normas de IA?
-
equipos de investigación y desarrolloque son responsables del desarrollo, la integración, la implementación y el soporte de los sistemas de IA, incluida la gobernanza de datos y la implementación de restricciones de equidad algorítmica apropiadas.
-
Equipos legales y de cumplimiento, que son responsables de establecer las mejores prácticas y procesos para garantizar el cumplimiento de las disposiciones de rendición de cuentas y transparencia de AI; y
-
Funciones de cara al clientelo que brinda claridad a los clientes y consumidores sobre las entradas y salidas esperadas del sistema de IA.
¿Cómo ayuda a las organizaciones a aprender a cumplir con los procesos de cumplimiento de IA y reducir el riesgo?
-
De vista tareas de ejecución del proceso de cumplimiento relacionadas con los datos de entrenamiento de IA-que procesos de recopilación, etiquetado, cumplimiento de corrección y gobierno de datos.
-
De descubriendo mantenimiento de registros y pasos de ejecución del proceso de documentación asociados con los procesos de gobierno de datos e identificación de las posibles causas de la mala ejecución del sistema de IA.
-
De analizando Procesos de transparencia de IA, asegurando que interpreta con precisión los resultados del sistema de IA y brinda información clara para que los usuarios confíen en los resultados.
-
De examinando interacciones humanas en el bucle y acciones tomadas en caso de anomalías reales en el rendimiento de los sistemas de IA.
-
De vigilanciaen tiempo real para identificar procesos que se desvían de los requisitos y activar alertas sobre cargas de procesos no conformes o cambios en las condiciones.
Conclusión
La explotación de procesos consciente de la confianza puede ser una herramienta importante para respaldar el desarrollo de mejores prácticas rigurosas de cumplimiento de IA que mitiguen los resultados incorrectos de IA.
Esto es importante-porque La adopción de la IA dependerá en gran medida del desarrollo de una cultura de IA confiable. Un estudio del Instituto de Investigación Capgemini refuerza la importancia de establecer la confianza del consumidor en la IA: casi el 50 % de los encuestados han experimentado lo que perciben como resultados injustos relacionados con el uso de sistemas de IA, el 73 % espera una mayor transparencia y el 76 % cree en la importancia de la regulación de la IA.
Al mismo tiempo, la gobernanza eficaz de la IA da como resultado una mayor lealtad a la marca y negocios repetidos. Establecer buenas prácticas y un gobierno de IA confiable es un buen negocio. Genera confianza y ventajas competitivas sostenibles.
Autor y experto de confianza raquel botsman lo dijo mejor cuando describió la confianza como “la fuerza notable que te empuja a través de la brecha entre la certeza y la incertidumbre; el puente entre lo conocido y lo desconocido».