Krypton Solid

La última tecnología en raciones de 5 minutos

La IA explicable de Google Cloud tiene como objetivo aclarar los resultados

Google lanzó Google Cloud Explainable AI, un nuevo conjunto de productos que permite a las empresas implementar modelos de aprendizaje automático más interpretables, lo que marca una continuación de más de un año de los esfuerzos del gigante tecnológico para proporcionar herramientas para crear e implementar una inteligencia artificial más responsable.

El proveedor de Mountain View, California, aunque a menudo es blanco de críticas por violaciones a la privacidad de los datos, también ha estado activo en el área de rápido crecimiento del desarrollo de tecnología de inteligencia artificial más abierta y explicable.

«Google ha estado activo a nivel macro en torno a temas importantes como la responsabilidad y el gobierno de la IA, en gran parte basado en educar a los clientes sobre los principios clave de la IA y enfocándose en áreas macro como la ética, la política y la estrategia», dijo Nick McQuire, vicepresidente de asesoría. firme CCS Insight.

Google Cloud Explainable AI, presentado el 21 de noviembre, contiene un conjunto de herramientas y marcos para implementar y gobernar modelos de aprendizaje automático interpretables.

Un elemento clave del paquete es AI Explanations, un nuevo producto beta que integra la atribución de funciones en AI Platform Prediction de Google, que permite a los usuarios solicitar predicciones de sus modelos de aprendizaje automático alojados en la nube.

Explicando la IA

Con las Explicaciones de IA, los usuarios pueden ver cuánto contribuyó cada característica en un modelo a una predicción. Esto ayuda a cuantificar la contribución de cada característica a la salida de un modelo.

Google ha estado activo a nivel macro en torno a temas importantes como la responsabilidad y la gobernanza de la IA.

Nick McQuireVicepresidente de CCS Insight

«Desde el punto de vista actual, estos pasos mejorarán el proceso sin duda porque a menudo el punto de partida es que las empresas tienen muy poca interpretabilidad en los modelos que construyen, que a menudo son sistemas de caja negra», dijo McQuire.

«Esto puede funcionar en escenarios de capacitación o cuando los proyectos se limitan a los departamentos de ciencia de datos o desarrolladores», continuó.

El paquete de productos también incluye la herramienta Y si … de Google, una interfaz interactiva que permite a los usuarios visualizar el rendimiento de sus modelos. Los elementos visuales permiten a los usuarios con una experiencia mínima de codificación trazar sus modelos en una variedad de gráficos e identificar más fácilmente las salidas de diferentes piezas de datos.

Los usuarios de la herramienta Y si … también pueden editar, agregar o eliminar las características de los puntos de datos y pueden comparar el rendimiento de dos modelos entre sí.

La plataforma de inteligencia artificial de Google también contiene capacidades de monitoreo, así como una evaluación continua, que muestra regularmente las entradas y salidas de los modelos de aprendizaje automático con etiquetas de verdad básica, etiquetas asignadas por revisores humanos. Esto proporciona información continua sobre el rendimiento de un modelo.

«Google Cloud Explainable AI incluye capacidades para explicar modelos durante el desarrollo del modelo, con Y si … y durante la producción, con evaluación continua. Ambos son fundamentales para tener confianza en la inteligencia artificial», dijo Mike Gualtieri, analista de inteligencia artificial de Forrester.

Aprendizaje automático más responsable

La suite Google Cloud Explainable AI está en línea con los esfuerzos recientes que Google ha realizado para desarrollar más herramientas para una inteligencia artificial responsable, dijo McQuire.

«Google también ha estado lanzando silenciosamente herramientas internas en código abierto en esta área durante el año pasado, como su herramienta What If Tool, Facets y Tensor Flow Extended», dijo McQuire.

«Ahora vemos que la empresa se basa en estos movimientos mediante la creación de instrumentación de explicabilidad en su plataforma de inteligencia artificial, haciéndolos más de nivel empresarial, si se quiere, que es lo que el mercado ha estado pidiendo», continuó.

La IA explicable es un tema candente, ya que los gobiernos comienzan a regular más el uso de datos, y la ética de la IA y los líderes empresariales exigen mejores explicaciones de los resultados de sus modelos antes de actuar sobre ellos.

«Casi todos los proveedores de herramientas ML tienen una capacidad o tienen una capacidad similar en su hoja de ruta», señaló Gualtieri.

Añadió que se encuentran disponibles productos independientes de otros proveedores para monitorear y explicar los modelos de aprendizaje automático, en particular IBM Watson OpenScale.

Durante el último año, IBM lanzó algunas herramientas para ayudar a los desarrolladores a crear modelos más interpretables y para que los usuarios comprendan mejor sus resultados. En los últimos años también han aparecido varias empresas emergentes que venden herramientas para implementar modelos de IA interpretables o modelos de mejor gobierno.

Según McQuire, «Una excepción notable es AWS, que ha llegado tarde a la fiesta, pero esperaría que este sea un gran enfoque en re: Invent en unas pocas semanas».

AWS re: Invent 2019, la conferencia insignia anual de la compañía, se llevará a cabo del 1 al 6 de diciembre en Las Vegas.

Deja un comentario

También te puede interesar...

Novedades de Netflix: 29 de diciembre de 2018

Cuando llama al corazón ya está en Netflix Bienvenido a tu mirada diaria a las noticias de Netflix. Analizaremos todas las nuevas incorporaciones para el 29 de diciembre de 2018 hoy, como parte de nuestro

Todo está al día

¿Recuerdas cuando instalar aplicaciones era un proceso lento que requería cambiar varios disquetes? Puede que haya renunciado a los disquetes, pero no ha cambiado mucho más. El otro día instalé una copia de Microsoft Visio

El software espía y la ley | Krypton Solid

Aunque el Congreso lo está considerando varios proyectos de ley para prohibir el software espía, es posible que muchos comportamientos de software espía ya sean ilegales. Un paseo Taller de antispywareLydia Parnes de la FTC

Definición de versiones

¿Cuál es la versión? La versión (también conocida como ‘discriminación de calidad’) es una práctica comercial en la que una empresa produce diferentes modelos del mismo producto y luego cobra precios diferentes por cada modelo.

La definición de utilitarismo.

¿Qué es el utilitarismo? El utilitarismo es una teoría de la moralidad que apoya las acciones que promueven la felicidad o el placer y se opone a las acciones que causan la infelicidad o el

Buen momento para obtener ganancias de Costco

Las acciones de Costco Wholesale Corporation (COST) han logrado ganancias impresionantes desde que rompieron la resistencia en junio de 2018, pero la evidencia técnica sugiere que ahora es el momento de tomar ganancias y seguir

Una mirada a Standard Life Aberdeen

Las empresas de gestión de activos se han enfrentado a una creciente preferencia de los inversores por los fondos pasivos, que son menos costosos. El 6 de marzo de 2017, en un movimiento que sacude

Responsabilidad correspondiente

¿Qué es la responsabilidad coincidente? La igualación de pasivos es una estrategia de inversión que iguala las ventas futuras de activos y los flujos de ingresos con el momento de los gastos futuros esperados. La

5 formas de diseñar para una audiencia local

5 formas de diseñar para una audiencia local En una publicación reciente, hablé de cómo se debe tener cuidado al diseñar sitios web para una audiencia global. Las diferentes culturas perciben cosas como el color

henry paulson

¿Quién es Henry Paulson? Henry Paulson, el 74º Secretario del Tesoro de los Estados Unidos, sirvió bajo la presidencia de George W. Bush desde julio de 2006 hasta enero de 2009. Antes de su mandato