Krypton Solid

La última tecnología en raciones de 5 minutos

¿Quién es responsable cuando la IA falla?

Los sistemas de IA a veces se vuelven locos.

Un chatbot, diseñado por Microsoft para imitar a un adolescente, comenzó a lanzar un discurso de odio racista pocas horas después de su lanzamiento en línea. Microsoft inmediatamente eliminó el bot.

Otro sistema, que Amazon diseñó para ayudar en sus esfuerzos de reclutamiento pero que finalmente no publicó, discriminó inadvertidamente a las mujeres solicitantes.

Otros sistemas llamados «inteligentes» han dado lugar a arrestos falsos, fianzas sesgadas para los acusados ​​e incluso accidentes automovilísticos fatales.

Los expertos esperan ver más casos de IA problemática a medida que las organizaciones implementan cada vez más tecnología inteligente, a veces sin adoptar la gobernanza adecuada. Un marco de gobernanza y una atención adicional a las preocupaciones éticas de la IA pueden ayudar a prevenir sesgos no deseados y desviaciones algorítmicas en los modelos de IA.

«Habrá grandes interrupciones sistémicas y, por lo tanto, grandes beneficios para quienes lideran con IA. Pero junto con eso viene la responsabilidad de establecer pautas y transparencia en el trabajo que haces», dijo Sanjay Srivastava, director digital de la firma de servicios profesionales Genpact.

«Si usa IA, no puede separarse de la responsabilidad o las consecuencias de esos usos», dijo.

Sin embargo, la mayoría de las organizaciones no cuentan con las pautas adecuadas.

La falta de orientación estandarizada en torno a la gobernanza de la IA y la complejidad de los modelos de aprendizaje profundo y de aprendizaje automático ha dificultado que los expertos decidan a quién culpar cuando un sistema de IA falla.

Componentes de la ética digital

Creando responsabilidad de IA

La creación de IA ética requiere atención a tres áreas amplias e interrelacionadas, según los expertos: el rendimiento funcional, los datos que usa y cómo se usa el sistema en sí.

Tome el primer cubo: rendimiento funcional. Las organizaciones generalmente usan tecnologías de tipo IA, que incluyen el aprendizaje automático y el procesamiento del lenguaje natural, para analizar datos y hacer predicciones. Pero todos los componentes dentro de la IA deben funcionar correctamente para que el sistema produzca decisiones precisas, justas y legales.

Por ejemplo, un sistema de detección de fraudes con tarjetas de crédito debe utilizar algoritmos finamente ajustados para proteger a los clientes contra el uso no autorizado de sus tarjetas de crédito, pero no debe rechazarlos cuando las personas realizan compras inusuales pero legítimas. Un sistema que deja pasar un uso no autorizado o genera demasiados falsos positivos podría destruir la confianza de los clientes en él.

La segunda área se ocupa de los datos, más específicamente, garantizar que se utilice un gran volumen de datos de alta calidad al entrenar y usar la IA. Los sistemas funcionan mejor cuando tienen datos limpios e imparciales con los que trabajar, especialmente cuando tienen muchos.

Las organizaciones también deben proteger esos datos contra el acceso y uso no autorizados.

El tercer segmento se ocupa de prevenir sesgos no deseados, es decir, garantizar que los datos introducidos en los algoritmos, así como los algoritmos en sí mismos, no produzcan resultados discriminatorios.

En el caso del modelo de contratación sesgado de Amazon, la empresa utilizó los currículums que había acumulado durante la última década para entrenar el modelo. La mayoría de los currículums fueron presentados por hombres durante ese tiempo, por lo que el modelo trató inherentemente de contratar a más hombres que mujeres. Esa configuración creó lo que podría haber sido un problema legal si Amazon no hubiera captado las decisiones sesgadas.

De manera similar, crear una IA ética y una responsabilidad de la IA también significa protegerse contra usos no intencionales. La mayoría de los sistemas de IA están diseñados para un caso de uso específico; usarlos para un caso de uso diferente produciría resultados incorrectos. Por ejemplo, un sistema basado en IA diseñado para optimizar los rendimientos de los cultivos para los productores de trigo no puede simplemente transferirse para asesorar a los productores de arroz que buscan maximizar sus rendimientos.

Las organizaciones que están atentas a las tres áreas, y los matices dentro de cada una de ellas, tienen más probabilidades de tener sistemas basados ​​en inteligencia artificial que produzcan resultados precisos y justos, dijo Srivastava. Esas organizaciones también tienen más probabilidades de identificar temprano cuando sus sistemas no funcionan bien, creando un nivel de responsabilidad por encima de las organizaciones menos atentas.

La posibilidad de que algo salga mal puede surgir del campo izquierdo.

Mike Loukides Vicepresidente de estrategia de contenido, O’Reilly Media

Sin garantías de éxito, responsabilidad de la IA

Incluso si un creador de IA sigue esas pautas, no hay garantía de que la organización creadora sea responsable si los problemas resultan del uso de la IA.

«La posibilidad de que algo salga mal puede surgir del campo de la izquierda», dijo Mike Loukides, vicepresidente de estrategia de contenido de O’Reilly Media, una empresa de formación empresarial y tecnológica.

Entonces, ¿qué sucede cuando los sistemas de inteligencia artificial dejan de producir resultados precisos y justos? ¿O qué pasa si nunca los produjeron en primer lugar? ¿Quién es responsable de las consecuencias que se derivan?

No es claro.

«La idea de la rendición de cuentas es que si algo sale mal, entonces el trabajo de alguien está en juego, pero ese no es el caso aquí en la mayoría de las empresas. Sin embargo, me gustaría pensar que es al menos el trabajo de alguien arreglarlo», dijo Loukides. .

Otros expertos compartieron esa observación, señalando varias razones de la falta de una responsabilidad clara con la IA problemática.

Los expertos señalaron la relativa novedad de la IA y su uso dentro de las empresas, y explicaron que muchos líderes corporativos aún no están en sintonía con todo lo que puede salir mal al usar esta tecnología.

Las organizaciones no siempre tienen la experiencia para crear y mantener sistemas basados ​​en IA justos y precisos, dijo Brandon Purcell, vicepresidente y analista principal de la firma de investigación Forrester. Además, es posible que ni siquiera sepan dónde existen sus responsabilidades frente a las responsabilidades de otros contribuyentes dentro de un ecosistema de tecnología inteligente.

«Para la mayoría de las empresas, la cadena de suministro de IA es muy larga y complicada», dijo Purcell.

Señala los vehículos autónomos: muchas empresas diferentes contribuyen a los sistemas inteligentes que impulsan los vehículos autónomos. Por ejemplo, diferentes empresas podrían potencialmente contribuir con datos, etiquetar datos y construir modelos de visión por computadora. Cada empresa podría culpar a otra cuando algo sale mal, dijo Purcell.

El sistema legal podría ayudar a resolver la responsabilidad de la IA, con muchas demandas en torno a estos temas, dijo.

Pero al implementar estrictas políticas de gobernanza de inteligencia artificial, las empresas podrían adelantarse a los escenarios de demandas.

«Esta es una oportunidad para codificar sus estándares éticos», dijo Purcell.

Tomemos a IBM, por ejemplo, donde la responsabilidad y la ética de la inteligencia artificial se componen de varias piezas, según Seth Dobrin, director de inteligencia artificial de la compañía.

IBM se acerca a la responsabilidad de la IA al considerar que la empresa es la única responsable de su IA y de todos los involucrados en el proceso de creación del alcance, diseño, implementación y gestión de que la IA en IBM es responsable de ello, dijo.

Para Dobrin, la responsabilidad y la ética de la IA significan que la IA es transparente y explicable. Es justo, es decir, libre de prejuicios inaceptables e involuntarios. Es robusto porque resiste presiones externas como los ataques de ciberseguridad. Además, el sistema de IA respeta la privacidad, por ejemplo, al preservar el anonimato de las personas a las que afecta. Y respeta y se adhiere a las regulaciones pertinentes, dijo.

Regulaciones sobre IA responsable en camino

Las organizaciones pueden ver que los gobiernos toman medidas sobre la responsabilidad de la IA al aprobar leyes que establecen ciertos requisitos para las empresas que utilizan sistemas de IA. Los legisladores también podrían promulgar políticas para responsabilizar a las organizaciones cuando los sistemas de inteligencia artificial hacen daño.

De hecho, algunas regulaciones gubernamentales ya están en proceso, con la Unión Europea a la cabeza.

Sin embargo, no está claro si tales acciones garantizarán efectivamente una inteligencia artificial ética y confiable y responsabilizarán a las organizaciones cuando no cumplan con las pautas de inteligencia artificial.

Los formuladores de políticas y los expertos en tecnología debaten sobre cuánta regulación promulgar. Algunos expertos creen que demasiada regulación podría limitar la creatividad y los avances tecnológicos. Sin embargo, muy poca regulación podría permitir que los sistemas de IA dañinos funcionen desenfrenadamente. Dónde trazar la línea está todavía ampliamente en debate.

Deja un comentario

También te puede interesar...

Cómo twittear enlaces Krypton Solid

Rápido, inmediato y conciso. Con estas tres características clave, Gorjeo Pronto ganó millones de usuarios en todo el mundo y se convirtió en uno de los medios de comunicación favoritos de los usuarios de Internet

Ataques de inyección comunes

En este extracto de libro de Hacking Exposed: Web 2.0, aprenderá acerca de los ataques de inyección comunes, desde inyecciones de SQL hasta inyecciones de desbordamiento de búfer. Los ataques de inyección existían mucho antes

Cómo generar un código de barras

¿Está buscando una forma rápida y fácil de crear códigos de barras para realizar pruebas, pero aún no ha encontrado ninguna solución gratuita actualizada? Probablemente no haya buscado bien, porque conozco algunos servicios en línea

Impuesto de Microsoft | Krypton Solid

Olvidaste mencionar la razón número uno por la que la gente odia a Microsoft. Intente comprar una computadora en cualquier lugar y dígales que quiere la computadora, pero no quiere el sistema operativo de Microsoft

Las 5 líneas de negocio de Apple más rentables

Fundada en 1976, Apple (AAPL) se convirtió en la primera corporación estadounidense en superar una capitalización de mercado de $ 1 billón en 2018. Históricamente, el espectacular aumento de las ventas, los beneficios y los

Definición de pago de pensión alimenticia

¿Qué es un pago de mantenimiento? Un pago de pensión alimenticia, también llamado pago de «cónyuge» o «manutención» en algunas partes de los Estados Unidos, es una cantidad predeterminada y periódica que se otorga a

Naughton: El sueño americano es amargo, Parte III

Ver también Parte II. – ¿Patrick? dijo, riendo entre dientes en voz alta y sin aliento mientras se acercaba. «Oye», respondió. Se saludaron torpemente. Le preguntó si quería dar un paseo por la playa; ella

Samsung presenta Omnia W, basado en Mango

Samsung ha presentado el primero de sus teléfonos con Windows que se lanzará con Mango, también conocido como la versión 7.5 de la plataforma de teléfonos inteligentes de Microsoft. El Omnia W, que llegará a

MyDoom muestra que las defensas no funcionan

MyDoom podría significar el fin de las tecnologías de seguridad. El virus, que combinó muchas técnicas de ataque antiguas en un paquete exitoso, apenas fue opacado por los programas antivirus en las primeras horas de