Google lanzó Google Cloud Explainable AI, un nuevo conjunto de productos que permite a las empresas implementar modelos de aprendizaje automático más interpretables, lo que marca una continuación de más de un año de los esfuerzos del gigante tecnológico para proporcionar herramientas para crear e implementar una inteligencia artificial más responsable.
El proveedor de Mountain View, California, aunque a menudo es blanco de críticas por violaciones a la privacidad de los datos, también ha estado activo en el área de rápido crecimiento del desarrollo de tecnología de inteligencia artificial más abierta y explicable.
«Google ha estado activo a nivel macro en torno a temas importantes como la responsabilidad y el gobierno de la IA, en gran parte basado en educar a los clientes sobre los principios clave de la IA y enfocándose en áreas macro como la ética, la política y la estrategia», dijo Nick McQuire, vicepresidente de asesoría. firme CCS Insight.
Google Cloud Explainable AI, presentado el 21 de noviembre, contiene un conjunto de herramientas y marcos para implementar y gobernar modelos de aprendizaje automático interpretables.
Un elemento clave del paquete es AI Explanations, un nuevo producto beta que integra la atribución de funciones en AI Platform Prediction de Google, que permite a los usuarios solicitar predicciones de sus modelos de aprendizaje automático alojados en la nube.
Explicando la IA
Con las Explicaciones de IA, los usuarios pueden ver cuánto contribuyó cada característica en un modelo a una predicción. Esto ayuda a cuantificar la contribución de cada característica a la salida de un modelo.
Nick McQuireVicepresidente de CCS Insight
«Desde el punto de vista actual, estos pasos mejorarán el proceso sin duda porque a menudo el punto de partida es que las empresas tienen muy poca interpretabilidad en los modelos que construyen, que a menudo son sistemas de caja negra», dijo McQuire.
«Esto puede funcionar en escenarios de capacitación o cuando los proyectos se limitan a los departamentos de ciencia de datos o desarrolladores», continuó.
El paquete de productos también incluye la herramienta Y si … de Google, una interfaz interactiva que permite a los usuarios visualizar el rendimiento de sus modelos. Los elementos visuales permiten a los usuarios con una experiencia mínima de codificación trazar sus modelos en una variedad de gráficos e identificar más fácilmente las salidas de diferentes piezas de datos.
Los usuarios de la herramienta Y si … también pueden editar, agregar o eliminar las características de los puntos de datos y pueden comparar el rendimiento de dos modelos entre sí.
La plataforma de inteligencia artificial de Google también contiene capacidades de monitoreo, así como una evaluación continua, que muestra regularmente las entradas y salidas de los modelos de aprendizaje automático con etiquetas de verdad básica, etiquetas asignadas por revisores humanos. Esto proporciona información continua sobre el rendimiento de un modelo.
«Google Cloud Explainable AI incluye capacidades para explicar modelos durante el desarrollo del modelo, con Y si … y durante la producción, con evaluación continua. Ambos son fundamentales para tener confianza en la inteligencia artificial», dijo Mike Gualtieri, analista de inteligencia artificial de Forrester.
Aprendizaje automático más responsable
La suite Google Cloud Explainable AI está en línea con los esfuerzos recientes que Google ha realizado para desarrollar más herramientas para una inteligencia artificial responsable, dijo McQuire.
«Google también ha estado lanzando silenciosamente herramientas internas en código abierto en esta área durante el año pasado, como su herramienta What If Tool, Facets y Tensor Flow Extended», dijo McQuire.
«Ahora vemos que la empresa se basa en estos movimientos mediante la creación de instrumentación de explicabilidad en su plataforma de inteligencia artificial, haciéndolos más de nivel empresarial, si se quiere, que es lo que el mercado ha estado pidiendo», continuó.
La IA explicable es un tema candente, ya que los gobiernos comienzan a regular más el uso de datos, y la ética de la IA y los líderes empresariales exigen mejores explicaciones de los resultados de sus modelos antes de actuar sobre ellos.
«Casi todos los proveedores de herramientas ML tienen una capacidad o tienen una capacidad similar en su hoja de ruta», señaló Gualtieri.
Añadió que se encuentran disponibles productos independientes de otros proveedores para monitorear y explicar los modelos de aprendizaje automático, en particular IBM Watson OpenScale.
Durante el último año, IBM lanzó algunas herramientas para ayudar a los desarrolladores a crear modelos más interpretables y para que los usuarios comprendan mejor sus resultados. En los últimos años también han aparecido varias empresas emergentes que venden herramientas para implementar modelos de IA interpretables o modelos de mejor gobierno.
Según McQuire, «Una excepción notable es AWS, que ha llegado tarde a la fiesta, pero esperaría que este sea un gran enfoque en re: Invent en unas pocas semanas».
AWS re: Invent 2019, la conferencia insignia anual de la compañía, se llevará a cabo del 1 al 6 de diciembre en Las Vegas.