Krypton Solid

La última tecnología en raciones de 5 minutos

Ampliar ejemplos de IA explicables clave para la industria

Los sistemas de inteligencia artificial tienen un potencial tremendo, pero el usuario promedio tiene poca visibilidad y conocimiento sobre cómo las máquinas toman sus decisiones. La explicabilidad de la IA puede generar confianza e impulsar aún más las capacidades y la adopción de la tecnología.

Cuando los humanos toman una decisión, generalmente pueden explicar cómo llegaron a su elección. Pero con muchos algoritmos de IA, se proporciona una respuesta sin ningún motivo específico. Esto es un problema.

La explicabilidad de la IA es un gran tema en el mundo de la tecnología en este momento, y los expertos han estado trabajando para crear formas para que las máquinas comiencen a explicar lo que están haciendo. Además, los expertos han identificado ejemplos y métodos de IA clave y explicables para ayudar a crear modelos transparentes de IA.

¿Qué es la explicabilidad de la IA?

Determinar cómo funciona un modelo de aprendizaje profundo o de aprendizaje automático no es tan simple como levantar el capó y mirar la programación. Para la mayoría de los algoritmos y modelos de IA, especialmente los que utilizan redes neuronales de aprendizaje profundo, no es evidente de inmediato cómo llegó el modelo a su decisión.

Los modelos de IA pueden estar en puestos de gran responsabilidad, como cuando se utilizan en vehículos autónomos o cuando asisten al proceso de contratación. Como resultado, los usuarios exigen explicaciones e información claras sobre cómo estos modelos toman decisiones.

La IA explicable, también conocida como XAI, es un campo emergente en el aprendizaje automático que tiene como objetivo abordar cómo se toman las decisiones de los sistemas de IA. Esta área inspecciona e intenta comprender los pasos involucrados en la toma de decisiones del modelo de IA. Muchos miembros de la comunidad investigadora y, en particular, la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA), han intentado mejorar la comprensión de estos modelos. DARPA está realizando esfuerzos para producir IA explicable a través de numerosas iniciativas de investigación financiadas y muchas empresas que ayudan a aportar explicabilidad a la IA.

Aprendizaje automático versus aprendizaje profundo

Por qué la explicabilidad es importante

Para ciertos ejemplos y casos de uso de IA explicables, describir el proceso de toma de decisiones por el que pasó el sistema de IA no es urgente. Pero cuando se trata de vehículos autónomos y de tomar decisiones que podrían salvar o amenazar la vida de una persona, aumenta la necesidad de comprender el fundamento de la IA.

Además de saber que la lógica utilizada es sólida, también es importante saber que la IA está completando sus tareas de manera segura y en cumplimiento de las leyes y regulaciones. Esto es especialmente importante en industrias fuertemente reguladas como las de seguros, banca y salud. Si ocurre un incidente, los humanos involucrados deben comprender por qué y cómo sucedió ese incidente.

Detrás del deseo de una mejor comprensión de la IA está la necesidad de confiar en los sistemas de las personas. Para que la inteligencia artificial y el aprendizaje automático sean útiles, debe haber confianza. Para ganarse esa confianza, es necesario que haya una forma de comprender cómo estas máquinas de inteligencia toman decisiones. El desafío es que algunas de las tecnologías adoptadas para la IA no son transparentes y, por lo tanto, dificultan la plena confianza en las decisiones, especialmente cuando los humanos solo operan en una capacidad limitada o completamente alejados del circuito.

También queremos asegurarnos de que AI tomó decisiones justas e imparciales. Ha habido numerosos ejemplos en los que los sistemas de IA han estado en las noticias por procesos de toma de decisiones sesgados. En un ejemplo de esto, la inteligencia artificial creada para determinar la probabilidad de una reincidencia criminal estaba sesgada hacia las personas de color. Identificar este tipo de sesgo tanto en los datos como en el modelo de IA es esencial para crear modelos que funcionen como se esperaba.

aportación humana en IA

La dificultad de construir una IA explicable

Hoy en día, numerosos algoritmos de IA carecen de explicabilidad y transparencia. Algunos algoritmos, como los árboles de decisión, pueden ser examinados y comprendidos por humanos. Sin embargo, los algoritmos de redes neuronales más sofisticados y potentes, como el aprendizaje profundo, son mucho más opacos y más difíciles de interpretar.

Estos algoritmos populares y exitosos han dado como resultado potentes capacidades para la inteligencia artificial y el aprendizaje automático; sin embargo, el resultado son sistemas que no se entienden fácilmente. Confiar en la tecnología de caja negra puede ser peligroso.

Pero la explicabilidad no es tan fácil como parece. Cuanto más complicado se vuelve un sistema, más conexiones conecta diferentes piezas de datos. Por ejemplo, cuando un sistema realiza reconocimiento facial, hace coincidir una imagen con una persona. Pero el sistema no puede explicar cómo se asignan los bits de la imagen a esa persona debido al complejo conjunto de conexiones.

IA explicable, transparencia de datos, datos limpios
La transparencia de los datos es importante para una IA explicable y viceversa

Cómo crear una IA explicable

Hay dos formas principales de proporcionar IA explicable. El primero es utilizar enfoques de aprendizaje automático que sean intrínsecamente explicables, como árboles de decisión, clasificadores bayesianos u otros enfoques explicables. Estos tienen ciertas cantidades de trazabilidad y transparencia en su toma de decisiones, lo que puede proporcionar la visibilidad necesaria para los sistemas críticos de IA sin sacrificar el rendimiento o la precisión.

El segundo es desarrollar nuevos enfoques para explicar redes neuronales más complicadas pero sofisticadas. Investigadores e instituciones, como DARPA, están trabajando actualmente para crear métodos para explicar estos métodos de aprendizaje automático más complicados. Sin embargo, el progreso en esta área ha sido lento.

Al considerar la IA explicable, las organizaciones deben determinar quién necesita comprender sus modelos de aprendizaje profundo o de aprendizaje automático. ¿Deben los ingenieros de funciones, los científicos de datos y los programadores comprender los modelos, o los usuarios comerciales también deben comprenderlos?

Al decidir quién debe entender un modelo de IA, las organizaciones pueden decidir el lenguaje utilizado para proporcionar una explicación detrás de las decisiones de un modelo. Por ejemplo, ¿está en un lenguaje de programación o en inglés simple? Si opta por un lenguaje de programación, una empresa puede necesitar un proceso para traducir el resultado de sus métodos de explicabilidad en explicaciones que un usuario empresarial, o un usuario no técnico, pueda comprender.

Cuanto más la IA sea parte de nuestra vida cotidiana, más necesitamos que estos algoritmos de caja negra sean transparentes. Tener una IA confiable, confiable y explicable sin sacrificar el rendimiento o la sofisticación es imprescindible. Hay varios buenos ejemplos de herramientas para ayudar con la explicabilidad de la IA, incluidas las ofertas de los proveedores y las opciones de código abierto.

Algunas organizaciones, como el Centro de Investigación Académica de Tecnología Avanzada, están trabajando en evaluaciones de transparencia. Esta puntuación multifactorial autoevaluada considera varios factores, como la explicabilidad del algoritmo, la identificación de las fuentes de datos utilizadas para el entrenamiento y los métodos utilizados para la recopilación de datos.

Al tener en cuenta estos factores, las personas pueden autoevaluar sus modelos. Si bien no es perfecto, es un punto de partida necesario para permitir que otros obtengan información sobre lo que sucede detrás de escena. En primer lugar, hacer que la IA sea confiable y explicable es esencial.

Deja un comentario

También te puede interesar...

Bienvenido a nuestro nuevo blog de telefonía IP

Si viene aquí, verá los términos «Telefonía IP» y «VoIP», a los que se hace referencia casi constantemente. Como escucharon en la escuela, no hay preguntas estúpidas. Para aquellos de ustedes que están un poco

SAP Data Hub debuta en SAP TechEd 2017

LAS VEGAS – Los desarrolladores de SAP vieron bien el futuro centrado en la nube en SAP TechEd 2017. Durante el discurso de apertura, Bjorn Goerke, CTO y presidente de SAP Cloud Platform, se disfrazó

Cambiar nota

¿Qué es una nota de cambio? Una nota de cambio es un tipo de bono en especie (PIK) en el que el emisor tiene la opción de diferir el pago de intereses acordando pagar un

Construirlo, pero ¿puedo pagarlo?

Sé por mis días cuando soñaba con planes de banda ancha que si quieres vender más, bajas el precio. No es una ciencia exacta. En aquellos días, hace una década, las personas se comprometían con

El gobierno es el verdadero ciberacoso

Qué delicadas flores me he convertido. El hecho de que algunas personas digan cosas desagradables en línea, nuestro estado de niñera las tiene en cuenta. una nueva represión de la libertad de expresión en Nueva

El éxito de BlackBerry ha llevado a su fracaso

En este momento, es la prehistoria de los dispositivos móviles, pero hubo un momento en que el mejor teléfono inteligente que podía obtener era un BlackBerry. Antes de la llegada del iPhone de Apple, los

Muro chino de código abierto Krypton Solid

Nada José ninguno de los dos I discutido con Greg Mancusi-Ungaro de Novell en entrevistas recientes fue trasladar la empresa a China. Es un movimiento que tiene sentido y plantea algunas preguntas que Novell podría

Definición de propiedad de alquiler residencial

¿Qué es una propiedad de alquiler residencial? La propiedad de alquiler residencial se refiere a casas que son compradas por un inversionista y habitadas por inquilinos con un contrato de arrendamiento u otro tipo de

40 fondos de pantalla de fantasía impresionante

40 fondos de pantalla de fantasía impresionante Aquí en WDD nos inspiramos con bellas imágenes … Miramos las pantallas de nuestras computadoras durante muchas horas al día y ¿qué mejor manera de inspirarnos teniendo algunas

Pruebas de Microsoft: lecciones del pasado (parte 2)

En la segunda parte de nuestro estudio de los libros de historia, Lisa Burroughes analiza las acusaciones antimonopolio contra Big Blue hace décadas. Puede que sean noticias viejas, pero Microsoft debería tomar nota. Imagine una

TalkBack Central: el nicho japonés de Apple

**** El lector de ZDNN Felix Torres responde al artículo, «La ubicación deja atrás a Apple», diciendo «Apple es un jugador de nicho en Japón, al igual que es un jugador de nicho en los