Gran parte de la discusión actual sobre la evolución de la inteligencia artificial, un término general que significa todo, desde software de reconocimiento de voz hasta robótica, se centra en la velocidad. Las máquinas pueden digerir, consumir y analizar más datos a un ritmo más rápido que nunca, pero ¿eso hace que una máquina sea inteligente?
Es una pregunta difícil de responder (incluso los expertos no están del todo de acuerdo), y eso es lo que hizo que la presentación EmTech de Dileep George fuera tan interesante. Titulado «Inteligencia artificial en el trabajo», George, que trabaja para el proyecto de investigación de inteligencia artificial Vicarious, comenzó su presentación con una observación: el hardware, los motores y el plástico son baratos, «pero todavía no tenemos una Rosie the Robot».
¿Por qué no está Rosie the Robot, la amada ama de llaves de la familia en la serie animada The Jetsons, para ordenar sus platos sucios y barrer sus pisos? Debido a un problema de software, ¿qué George (eso es Dileep George, no George Jetson) llamado «el problema del sentido común».
Ilustró lo que quería decir con dos frases: John golpeó un clavo en la pared; Sally golpeó un clavo en el suelo. Si George preguntara en qué caso estaba el clavo en posición horizontal, los asistentes de EmTech podrían responder fácilmente esa pregunta, dijo. Instantáneamente imaginamos el escenario: John, la pared, tal vez incluso un martillo.
“Tienes un modelo bastante rico del mundo en tu cabeza, y yo estaba hurgando en ese conocimiento usando algunas oraciones. Y ejecutó una rica simulación en su cabeza para responder a la pregunta ”, dijo.
Para las máquinas, no tanto. No pueden imaginar la situación porque carecen de lo que George llamó «un modelo del mundo». “Para construir sistemas que tengan sentido común, hay que construir sistemas que construyan modelos del mundo”, dijo. «De hecho, yo diría que construir un modelo del mundo y poder actuar sobre él es el quid de la inteligencia».
Pero aquí es donde se vuelve confuso: hay sistemas que pueden funcionar con éxito en el mundo sin tener un modelo. “Nuestro mundo está lleno de criaturas que pueden hacer esto”, dijo. Dinosaurios, peces, anfibios, reptiles son todos ejemplos. Por otro lado, el Roomba, un robot aspirador, puede atascarse limpiando una esquina de la habitación porque no tiene un modelo de su entorno. Eso es cierto incluso para la inteligencia artificial de DeepMind Technologies que ha aprendido a jugar con Atari. Cambia el brillo de la pantalla y la IA de DeepMind se dispara.
Todos estos sistemas utilizan lo que George llamó «cerebro viejo». Para la IA, eso se traduce en el uso de una gran cantidad de datos de entrenamiento y etiquetas para crear una respuesta deseada. “Una vez que entrena el sistema, y estos son humanos que entrenan el sistema, producen la respuesta dados los datos de la prueba”, dijo. Pero todavía no es un modelo rico.
Entonces, ¿cómo pueden los investigadores ayudar a la IA a evolucionar de un cerebro antiguo a un cerebro nuevo, una inteligencia que puede imaginar y razonar sobre el mundo? George dijo que hay dos pasos a seguir:
- Tome en serio la neurociencia y la ciencia cognitiva. «Necesitamos comprender lo que está sucediendo en el nuevo cerebro en lugar de construir circuitos muy específicos para aplicaciones muy específicas», dijo.
- Céntrese en la eficiencia de los datos y la generalidad de las tareas. En lugar de arrojar una gran cantidad de datos de entrenamiento a las máquinas y probar la máquina en conjuntos de datos limitados y estrechos, George argumenta que debe invertirse. «Hay que mantener pequeños los datos de entrenamiento, como lo haría un niño, y tenemos que probarlos en un enorme conjunto de datos», dijo. «Tenemos que probar la solidez».
«Si ejecuta esos principios, puede [do things like] romper captcha ”, una prueba compuesta por números y letras que se utiliza para garantizar que el usuario del sitio sea humano. De hecho, George y sus colegas han hecho precisamente eso, con una pequeña cantidad de datos de entrenamiento y un gran conjunto de pruebas. “Es una hazaña asombrosa de generalización por parte de los humanos”, dijo. “No obtuviste datos de entrenamiento en ninguno de estos captchas y puedes resolver estas cosas. Un niño podría resolver muchos de estos sin ejemplos de formación «.
El sistema que están construyendo George y sus colegas se entrenó en 260 imágenes de un solo carácter, ni siquiera cadenas completas de captchas. Una red neuronal profunda requiere medio millón de secuencias captcha reales para obtener un rendimiento comparable.