Krypton Solid

La última tecnología en raciones de 5 minutos

Una mirada a las tendencias y sesgos de la IA en los algoritmos de IA

En los últimos años, la IA ha logrado avances dramáticos entre las empresas. Cada vez más organizaciones se están enfocando en cómo usar la IA de manera eficiente y muchas ahora están automatizando el proceso de IA de nuevas formas. Solo este año, nuevas tendencias de IA que son ver una acción intensificada incluye aprendizaje automático automatizado, automatización de procesos robóticos e IA en la industria de servicios.

El creciente interés en las aplicaciones empresariales de la IA conlleva desafíos. Por un lado, la IA ha sido tradicionalmente un proceso muy manual. Es posible que muchas empresas no tengan el talento necesario para implementar completamente la tecnología. Otro desafío es supervisar la IA, incluida la forma en que las organizaciones pueden lidiar con los problemas relacionados con Sesgo de IA – algoritmos que producen resultados prejuiciosos basados ​​en datos defectuosos, de mala calidad o incompletos, y si los gobiernos tomarán un papel más activo en la regulación de la tecnología. A principios de este año, la Comisión Europea publicó su primera propuesta legislación para regular la IA. La ley incluye multas para las organizaciones que no cumplan.

Pero mientras más empresas reconocen e intentan hacer algo al respecto, la realidad es que existe un sesgo de IA.

En esta sesión de preguntas y respuestas, Kashyap Kompella, director ejecutivo y analista jefe de RPA2AI Research, analiza las tendencias de inteligencia artificial que está viendo y lo que las organizaciones pueden hacer para combatir los prejuicios dentro de sus sistemas de aprendizaje automático.

Cuales son algunas de las claves Tendencias de IA usted estás notando últimamente?

Kashyap KompellaKashyap Kompella

Kashyap Kompella: Ha habido un gran interés en la IA por parte de las empresas en los últimos años. No hablo en términos técnicos, sino en términos de percepción general. Debido a las mayores expectativas, se acerca un poco de invierno de IA.

Hace tres o cuatro años, cuando las empresas estaban haciendo un plan anual, tenían 10 prioridades estratégicas a nivel de CEO. Cuatro de ellos habrían incluido AI. Pero este año, no se menciona la IA en absoluto. Eso es porque la gente está reconociendo la dificultad de la comercialización de la IA.

Un pionero del aprendizaje profundo ayudó a formar una empresa en Canadá llamada Element AI. El gobierno canadiense hizo todo lo posible y dijo: «Este es un escaparate de la innovación que Canadá es capaz de hacer». Todos los grandes, Microsoft, todos, invirtieron en ellos, por lo que no hubo escasez de talento; No hubo escasez de gran apoyo para ellos y tampoco escasez de visibilidad o marca. Podían hacer lo que quisieran, pero realmente no podían hacerlo. Realmente lucharon y la compañía se vendió por menos de los $ 250 millones que recaudaron. Eso muestra la dificultad de monetizar.

Se acerca un poco de invierno de IA.

Kashyap KompellaDirector ejecutivo y analista jefe, investigación de RPA2AI

Y, por otro lado, tecnologías muy simples como la automatización de procesos robóticos están ganando mucha tracción. La tarea de construir IA es muy manual, muy compleja, muy humana.

Existe una gran oportunidad para las empresas de servicios en IA. Tome autos sin conductor. Conduces un coche y capturas toda la información. Toma ese video y necesita anotar diciendo: ‘Esto es un camino; esta es la señal de tráfico ‘. Esa anotación solía llevar alrededor de 800 horas de esfuerzo humano. Imagínese la cantidad de dinero que se requiere para hacerlo. Existe un subsegmento en auge de la IA para este etiquetado de datos.

Y necesita almacenar y utilizar todos estos datos. Entonces, hay un boom en el hardware. Si observa gran parte del crecimiento de empresas como Nvidia, ha sido gracias a las GPU, que se utilizan para entrenar modelos de IA. Las GPU generalmente se usaban para jugar videojuegos y Nvidia era muy buena en eso antes de la revolución de la inteligencia artificial.

¿Qué tan difícil es comercializar la IA?

Kompella: La comercialización es muy dura. Google tiene una empresa de inteligencia artificial llamada Deep Mind. Pero tuvieron pérdidas de $ 650 millones el año pasado. Lo mismo con Boston Dynamics. Ves a todos estos perros robot geniales haciendo todos estos bailes, videos geniales, pero sin ganancias.

Para el tipo de innovación que es posible, necesitamos implementar muchas herramientas para que esto suceda. También necesitamos muchas barreras éticas, lo que no está sucediendo al mismo ritmo que debería estar sucediendo. Entonces, una vez que estos dos estén en su lugar, veremos muchas de estas aplicaciones, lo que probablemente tomará otros cinco años. El peligro es que estamos avanzando con implementaciones más grandes sin las barreras de seguridad.

Una gran tendencia de la IA es la automatización de la IA y el aprendizaje automático. ¿Qué importancia tienen las nuevas herramientas que se están desarrollando para hacer esto?

Kompella: Gran parte del enfoque está desproporcionadamente en cómo construimos un modelo de aprendizaje automático. Pero una vez que construye uno, debe integrarse con sus sistemas tecnológicos existentes. Debe ser parte del flujo de trabajo y el negocio más amplios, de modo que una vez que haya creado el modelo, impleméntelo en producción y, finalmente, lo utilice; ese campo es MLOps, que es análogo a DevOps. Así que esa es una gran área de inversión. Esa es una gran área de innovación. En este momento, las herramientas que tenemos no están lo suficientemente estandarizadas en comparación con otros campos.

Otra tendencia clave de la IA es la ética de la IA. ¿Cómo pueden los ingenieros tener en cuenta el sesgo en los algoritmos de IA?

Kompella: No es así, y esa es la causa de muchas de las fallas en los sistemas de inteligencia artificial. Eso es muy [significant] misión y es una pregunta importante. Existe este caso de autos autónomos Uber en Arizona. Hubo un accidente fatal porque la modelo supo reconocer al peatón, cómo reconocer a alguien en bicicleta. Pero el modelo no pudo identificar a una persona que caminara con su bicicleta, por lo que hubo un accidente.

¿Qué hacemos cuando la máquina no entiende? Esto se llama un humano en el bucle. Quieres asegurarte de que cuando suceden excepciones, quieres arrojárselo a un humano.

En el contexto del aprendizaje automático, no está sucediendo tanto como debería porque la máquina no sabe cuándo no sabe.

Si está realizando un examen y está adivinando, sabe si está adivinando o si conoce la respuesta, pero la máquina no lo sabe. Esta es un área activa de investigación en la que la gente está tratando de decir, si tenemos un 95% de confianza en la predicción, lo haremos. De lo contrario, vamos a dejar esto en manos de un humano como un flujo de trabajo de excepción. Pero eso no es muy común.

Y dentro de la tendencia de la ética de la IA está la cuestión del sesgo. ¿Qué responsabilidades tienen las empresas para prevenir el sesgo de la IA?

Kompella: En la ética de la IA hay cuatro o cinco principios básicos. Una es que estos modelos deben ser seguros. Necesitan ser responsables. Deben ser transparentes. Deben ser dignos de confianza. La etapa actual en la industria es que estos son autorreguladores. No existe una regulación vinculante, excepto en situaciones específicas, como la Ley de Información Crediticia Justa. [which contains language regulating the use of AI]. Los únicos casos en los que he visto empresas que realizan este tipo de controles es cuando hay regulación. En ausencia de regulación, no está sucediendo

Gran parte del sesgo se debe a que los datos que recopilan las empresas no son representativos del mundo real. Entonces, si las empresas prestan atención a los datos que están recopilando, muchos de estos problemas se resolverán. Luego viene qué tipo de algoritmos usamos y cómo se usan los datos.

¿Qué tiene de problemático que los seres humanos depositen tanta confianza en la IA como nosotros?

Kompella: Cuando hablamos de humanos e IA, existen todas estas nociones de que la IA puede procesar muchos más datos que nosotros porque tiene una potencia informática ilimitada en comparación con cualquier cerebro. Y que también es muy objetivo en comparación con los humanos que pueden estar sesgados. Esta es nuestra percepción. Pero, por otro lado, la precisión real de los sistemas de IA es ligeramente menor que eso.

La precisión para ciertos grupos, si no están bien representados en los datos, es aún peor. Entonces, en esta zona es motivo de preocupación el sesgo de la IA. Ha implementado un sistema pensando que será preciso a este nivel, pero tiene un rendimiento inferior o un rendimiento inferior debido a esta característica.

Nota del editor: esta entrevista ha sido editada para mayor claridad y concisión.

Deja un comentario

También te puede interesar...

infracción de copyright

¿Qué es la infracción de derechos de autor? La infracción de derechos de autor es el uso o la producción de material protegido por derechos de autor sin el permiso del titular de los derechos