El enfoque actual de la inteligencia artificial y el aprendizaje automático es excelente para las grandes empresas que pueden permitirse contratar científicos de datos. Pero quedan dudas sobre cómo las empresas más pequeñas, que a menudo carecen de los presupuestos de contratación para incorporar científicos de datos de alto precio, pueden aprovechar el potencial de la IA. Una posible solución puede consistir en realizar aprendizaje automático en dispositivos periféricos.
Gadi Singer, vicepresidente del Grupo de Productos de Inteligencia Artificial y director general de arquitectura de Intel, dijo en una entrevista en la Conferencia de IA de O’Reilly en Nueva York que incluso uno o dos científicos de datos son suficientes para gestionar la integración de IA en la mayoría de las empresas.
Pero, ¿la fuerza laboral proporcionará cantidades adecuadas de científicos de datos capacitados para cubrir las ambiciones de IA de todas las empresas? Las grandes empresas de tecnología como Netflix y Microsoft tienen suficiente dinero para buscar talento. Pero los expertos no están seguros de que las empresas más pequeñas con presupuestos más ajustados puedan encontrar el talento que necesitan.
Simon Crosby, CTO de San José, California, empresa de dispositivos inteligentes Swim, dijo que es imposible esperar que haya suficientes trabajadores capacitados para supervisar y administrar las implementaciones de IA en todas las empresas. Una forma de combatir eso es desarrollar dispositivos de vanguardia que tengan inteligencia incorporada que les permita aprender y adaptarse automáticamente.
«Las cosas se pondrán inteligentes porque procesan sus propios datos y formulan teorías sobre el mundo», dijo Crosby.
«La velocidad a la que estamos generando capacidad computacional se combina muy bien con esta noción de que los objetos del mundo real (semáforos, etc.) pueden formar digitalmente teorías sobre cómo se comportarán en el futuro y luego probarlas o refutarlas. y ajustar «.
Cómo funciona el aprendizaje basado en el borde
Los expertos en la conferencia dijeron que el aprendizaje basado en el borde podría desempeñar un papel importante para ayudar a que las herramientas de IA sean aún más útiles para las empresas. El aprendizaje automático en dispositivos periféricos, que elimina la necesidad de cargar datos en la nube para ser analizados por un algoritmo, teóricamente permite la reducción de errores. La mayoría de los problemas en el desarrollo de la IA son causados por datos de entrenamiento deficientes y modelos no representativos, dijo Crosby. El aprendizaje de bordes es diferente.
«Una de las cosas interesantes sobre el aprendizaje basado en el borde es que las nociones de sobreajuste y desajuste simplemente no se aplican», dijo.
«Terminas con [edge devices] que tienen una buena forma de comprender y predecir su propio comportamiento, y pueden estar sesgados debido a su situación particular, pero son solo cosas individuales. No hay un sesgo sistemático o de todo el sistema «.
Pensar en cómo se desarrolla el sesgo en la IA solo se volverá más importante a medida que comencemos a ver dispositivos de borde más inteligentes. Esto es lo que el director del Instituto de Robótica de la Universidad Carnegie Mellon, Martial Hebert, llamó el segundo tipo de IA. Aquí, los modelos se entrenan a sí mismos mientras recopilan datos, en lugar de entrenarse a partir de los datos recopilados.
A diferencia del aprendizaje automático de primer nivel y de bajo riesgo y el aprendizaje profundo (piense en el motor de recomendación de Netflix), la IA de segundo nivel implica algoritmos que pueden causar daños físicos o la pérdida de vidas en caso de fallas.
En los casos de uso de IA de segundo tipo, las capacidades locales y de autoaprendizaje de los algoritmos entrenados basados en el borde permiten un tiempo de respuesta más inmediato, ya que la tecnología piensa en situaciones independientes y responde en consecuencia. Si bien la velocidad y la independencia pueden ser beneficiosas en ciertas situaciones, también crea un riesgo debido a la posibilidad de que los algoritmos funcionen mal.
La necesidad de un código de conducta algorítmico
Si entra en pánico al pensar en dispositivos autónomos, no está solo en ese miedo. Con el potencial de trabajar sin interacción humana, Crosby señaló que quizás los modelos mismos deban adherirse a un código de conducta para abordar universalmente el sesgo, el riesgo y la implementación exitosa.
Entonces, el código de conducta incluiría una medida de transparencia tanto de los dispositivos de inteligencia artificial como de su metodología de aprendizaje y garantizaría que los bots y algoritmos que realizan el aprendizaje automático en los dispositivos periféricos funcionen de acuerdo con un conjunto de pautas para toda la industria.
«Debería haber un conjunto de principios mediante los cuales nosotros, como sociedad, tengamos ciertos principios que todos estén de acuerdo en cumplir, que minimicen el riesgo», dijo Crosby.