Krypton Solid

La última tecnología en raciones de 5 minutos

5 riesgos de IA que las empresas deben enfrentar y cómo abordarlos

Las empresas siempre han tenido que gestionar los riesgos asociados con las tecnologías que adoptan para desarrollar sus negocios. Deben hacer lo mismo cuando se trata de implementar inteligencia artificial.

Algunos de los riesgos de la IA reflejan los asociados con la implementación de cualquier nueva tecnología: existen riesgos de IA relacionados con una alineación estratégica deficiente con los objetivos comerciales, la falta de habilidades para respaldar las iniciativas y la falta de aceptación en todos los rangos de la organización.

Como tal, los ejecutivos deben continuar apoyándose en las mismas mejores prácticas que han guiado la adopción efectiva de otras tecnologías, con consultores de gestión y expertos en inteligencia artificial que asesoran a los CIO y a sus colegas de alto nivel para identificar áreas en las que la inteligencia artificial puede ayudarlos a alcanzar los objetivos organizacionales y desarrollar estrategias. para garantizar que tengan la experiencia necesaria para respaldar los programas de IA y crear políticas sólidas de gestión de cambios para facilitar y acelerar la adopción empresarial.

Sin embargo, los ejecutivos están descubriendo que la IA en la empresa también conlleva riesgos únicos que deben reconocerse y abordarse.

Aquí hay cinco áreas de riesgo que pueden surgir a medida que las organizaciones implementan y usan tecnologías de IA en la empresa:

La falta de confianza de los empleados impide la adopción de la IA

Beena Ammanath, directora general de inteligencia artificial, Deloitte Consulting LLPBeena Ammanath

A pesar de su nombre y del cañón de características de ciencia ficción basadas en versiones sensibles de inteligencia artificial, la IA no opera independientemente de la interacción humana; En algún momento del proceso empresarial, los seres humanos deben intervenir para tomar acciones basadas en la orientación de los sistemas de IA.

Sin embargo, no todos los trabajadores están dispuestos a aceptar a sus colegas digitales. Según el informe de julio de 2019 «AI and Empathy» del fabricante de software Pegasystems, el 35% de las 6.000 personas encuestadas dijeron que les preocupaba que las máquinas les quitaran el trabajo y el 27% dijo que les preocupaba «el auge de los robots y la esclavitud de la humanidad». . «

Los líderes empresariales claramente tienen mucho trabajo por hacer cuando se trata de establecer la confianza de los trabajadores en la IA. Sin esa confianza, la implementación de la IA no será productiva.

«He visto casos en los que el algoritmo funciona perfectamente, pero el trabajador no está capacitado ni motivado para usarlo», dijo Beena Ammanath, director gerente de IA de Deloitte Consulting LLP.

Considere, por ejemplo, lo que sucede cuando los trabajadores no confían en una solución de inteligencia artificial en una fábrica que determina que una máquina debe apagarse para su mantenimiento. «Puede construir la mejor solución de inteligencia artificial (podría tener una precisión del 99,998%) y podría estar diciendo al trabajador de la fábrica que apague la máquina», dijo Ammanath. «Pero si el usuario final no confía en la máquina, lo cual no es inusual, entonces la IA es un fracaso».

«Brindar la capacitación adecuada para asegurarse de que sus usuarios estén abiertos al uso de la IA, enfocándose realmente en la adopción, es un factor importante», dijo.

Los sesgos, los errores se magnifican por el volumen de transacciones de IA

En su nivel más básico, la IA toma grandes volúmenes de datos y luego, utilizando algoritmos, identifica y aprende a realizar a partir de los patrones que identifica en los datos. Pero cuando los datos están sesgados o son problemáticos, la IA produce resultados erróneos.

Del mismo modo, los datos problemáticos o los errores en los algoritmos pueden llevar a que los sistemas de IA produzcan malos resultados.

Seth Earley, director ejecutivo de Earley Information ScienceSeth Earley

«La IA no sabe lo que es importante para usted, no conoce sus productos, sus procesos, sus clientes», dijo Seth Earley, autor de La empresa impulsada por la inteligencia artificial y director ejecutivo de Earley Information Science. La IA se basa en los fundamentos del negocio, que deben enseñarse.

Los trabajadores humanos, por supuesto, tienen prejuicios y también cometen errores, pero las consecuencias de sus errores se limitan al volumen de trabajo que pueden hacer antes de que se detecten los errores, que a menudo no es mucho. Sin embargo, las consecuencias de los sesgos o errores ocultos en los sistemas operativos de IA pueden ser exponenciales.

Chris Brahm, socio y director de Bain & Co.Chris Brahm

«Los humanos pueden cometer 30 errores en un día, pero un bot que maneja millones de transacciones al día magnifica cualquier error», dijo Chris Brahm, socio y director de Bain & Co., y líder de la práctica de análisis avanzado global de la firma.

Los buenos datos son clave para mitigar tales riesgos de IA, dijeron los expertos.

«La IA se basa en datos, y los datos son más importantes que el algoritmo. Si no tenemos los datos para respaldar el proceso, ningún algoritmo funcionará. Ningún algoritmo convertirá los datos malos en datos buenos», dijo Earley.

La IA puede tener consecuencias no deseadas, automatizar prácticas poco éticas

Una cadena de supermercados que utiliza inteligencia artificial para determinar los precios podría encontrar que el sistema, después de analizar los datos demográficos, genera precios significativamente más altos para los productos alimenticios en los vecindarios pobres donde no hay competencia. Según los datos, la estrategia podría ser lógica, pero ¿es el resultado que la cadena de supermercados había buscado?

Los expertos han planteado preocupaciones éticas similares sobre el uso de la inteligencia artificial en muchas otras funciones empresariales, señalando, por ejemplo, que los sistemas de inteligencia artificial utilizados para clasificar los currículums han aprendido a favorecer a ciertos tipos de candidatos sobre otros en lo que muchos consideran formas cuestionables y poco éticas.

Shervin Khodabandeh, director gerente y socio senior de Boston Consulting GroupShervin Khodabandeh

«La IA tiene que ser responsable y ética», dijo Shervin Khodabandeh, director gerente y socio senior de Boston Consulting Group y colíder de su negocio de IA en Norteamérica.

Aunque es posible que los líderes organizacionales no puedan prever todas las consideraciones éticas, Khodabandeh y otros dijeron que las empresas deben tener marcos para garantizar que sus sistemas de inteligencia artificial contengan las políticas y las medidas de seguridad para crear resultados éticos, transparentes, justos e imparciales. También es importante tener sistemas de monitoreo de empleados humanos para confirmar que los resultados cumplen con los estándares establecidos por la organización.

Las habilidades clave pueden estar en riesgo de ser erosionadas por la IA

Después de dos accidentes aéreos que involucraron aviones Boeing 737 Max, uno a fines de 2018 y otro a principios de 2019, algunos expertos expresaron su preocupación de que los pilotos estuvieran perdiendo habilidades básicas de vuelo, ya que dependían cada vez más de cantidades cada vez mayores de automatización en la cabina.

Aunque esos incidentes son casos extremos, Brahm dijo que la inteligencia artificial podría erosionar otras habilidades clave que las empresas pueden querer preservar en su fuerza laboral humana.

«¿A medida que implementas la IA, pierdes habilidades?» preguntó. «¿Las personas y las funciones laborales se vuelven descalificadas? Ya vimos la descalificación de la navegación. Todos nos hemos vuelto más dependientes de Google Maps de lo que nos gustaría admitir».

Dijo que los ejecutivos de todas las industrias deberían considerar qué habilidades cotidianas que existen ahora se podrían perder y si es necesario preservarlas en algún nivel.

Los datos de entrenamiento deficientes, la falta de monitoreo pueden sabotear los sistemas de IA

Microsoft lanzó un chatbot llamado Tay en Twitter en 2016. Los ingenieros habían diseñado el bot para participar en interacciones en línea y luego aprender patrones de lenguaje para que ella, sí, Tay fue diseñado para imitar el habla de una adolescente femenina, sonaría como un natural en Internet.

En cambio, los trolls le enseñaron a Tay un lenguaje racista, misógino y antisemita, y su lenguaje se volvió tan hostil y ofensivo en cuestión de horas que Microsoft suspendió la cuenta.

La experiencia de Microsoft destaca otro gran riesgo de la creación y el uso de la IA: se debe enseñar bien para que funcione correctamente.

Para evitar que los bots aprendan un mal comportamiento, Ammanath dijo que los ingenieros deben incorporar barandillas en el diseño para evitar que los bots imiten ciertas palabras y frases.

En el futuro con los programas de inteligencia artificial, se recomienda a las organizaciones que no solo creen tales barreras de seguridad desde el principio, sino que también monitoreen lo que su inteligencia artificial está aprendiendo a lo largo del tiempo para asegurarse de que tenga información adecuada y completa para llegar a las conclusiones correctas y tomar las acciones correctas.

Considere, por ejemplo, cómo la pandemia ha provocado una escasez de papel higiénico en los estantes de las tiendas, dijo Brahm. La demanda agregada de papel higiénico fue probablemente casi la misma que antes de la pandemia, pero la pandemia cambió la ubicación de la demanda: los compradores institucionales, como las escuelas, redujeron las ventas, mientras que los consumidores aumentaron sus compras.

Los proveedores que utilizaban sistemas basados ​​en inteligencia artificial para pronosticar la demanda debían ajustar esos sistemas para considerar las circunstancias altamente inusuales, circunstancias que no podrían haber sido parte de los datos de capacitación existentes, si querían tener pronósticos precisos sobre dónde se encontraban los próximos Los envíos de papel higiénico deben irse.

Deja un comentario

También te puede interesar...

Negocio en línea con drogas permitidas | Krypton Solid

Los medicamentos ya no se pueden vender en Internet en Alemania Un tribunal federal de Fráncfort del Meno ha prohibido a la farmacia en línea 0800 DocMorris holandesa vender temporalmente medicamentos a clientes alemanes. Tanto

Guerras de pila de código abierto | Krypton Solid

Tanto Red Hat como Novell han introducido servidores de aplicaciones de código abierto que se integran bien con sus respectivas distribuciones de Linux. Las empresas dicen que los clientes exigen una pila de software más

Cómo calcular tu salario independiente

Ser su propio jefe es una gran sensación, pero también conlleva la responsabilidad de saber cuánto cobrar por sus servicios. Puede disfrutar de la libertad de seguir su carrera en la dirección que más le

Definición de contracción

¿Qué es la contracción? La disminución es la pérdida de inventario que se puede atribuir a factores como robo de empleados, robo de tienda, error administrativo, fraude del vendedor, daño y error del cajero. La

Definición de apreciación de la moneda

¿Qué es la apreciación de la moneda? La apreciación de la moneda es un aumento en el valor de una moneda frente a otra moneda. Las monedas se valoran entre sí por una variedad de

Definición de ANOVA de tres vías

¿Qué es ANOVA de tres vías? Los estadísticos utilizan el ANOVA de tres vías para determinar si existe una relación de tres vías entre las variables de un resultado. Determina qué efecto, si lo hubiere,

¿Qué es SAP Design Studio?

SAP BusinessObjects Design Studio es una aplicación para crear cuadros de mando ejecutivos. Design Studio fue una de las primeras aplicaciones de SAP Business Intelligence (BI) creadas pensando en la movilidad, y está destinada a

Definición de préstamo personal.

¿Qué es un préstamo personal? Un préstamo personal es una suma de dinero que puede pedir prestada para usarla en una variedad de propósitos. Por ejemplo, puede usar un préstamo personal para consolidar deudas, pagar

Definición de competencia de Cournot

¿Qué es la Competencia de Cournot? La competencia de Cournot es un modelo económico que describe una estructura industrial en la que empresas rivales que ofrecen un producto idéntico compiten por la cantidad de producción

Gobierno de Vic. el brazo pone la hoja en el poder

Sostenibilidad Victoria espera reducir su consumo de energía en más del 50% mediante la implementación de servidores IBM BladeCenter en su nueva oficina en Melbourne. La organización, que trabaja con el gobierno estatal y empresas