El rápido desarrollo de la inteligencia artificial y el aprendizaje automático es un arma de doble filo. Las tecnologías se están volviendo más baratas y fáciles de aplicar a la empresa, lo que también facilita que los malos actores utilicen la tecnología emergente.
Veintiséis investigadores, expertos en políticas e industria de instituciones como Oxford, Cambridge y Yale y organizaciones sin fines de lucro como OpenAI y Electronic Frontier Foundation están haciendo sonar la alarma sobre los ataques de IA. En un nuevo informe «El uso malintencionado de la inteligencia artificial: previsión, prevención y mitigación», que se publicó la semana pasada, los autores advierten que la IA planteará graves amenazas a la seguridad de los sistemas, las personas y los gobiernos en los próximos años. . Aconsejan a los investigadores y a los legisladores que tomen el asunto en sus propias manos ahora colaborando estrechamente, hablando e implementando nuevas políticas, incluida la posibilidad de retrasar la publicación de nuevos avances en inteligencia artificial, como una estrategia de seguridad de TI.
A medida que las tecnologías de IA se vuelven más mercantilizadas, el informe establece que el bajo costo y la rápida evolución de estas herramientas agregarán propósito y poder a las amenazas de seguridad existentes y darán lugar a nuevas amenazas, como nunca antes se habían enfrentado los CIO.
Específicamente, los autores predicen que los tipos de ataques que enfrentan las empresas hoy en día llegarán a un ritmo más rápido con un enfoque más amplio, serán más difíciles de atribuir e involucrarán a más atacantes que en la actualidad. Por ejemplo, el spear phishing, que es la práctica de enviar correos electrónicos falsos a personas que parecen provenir de una fuente confiable, se realiza manualmente y podría acelerarse con IA, lo que amenaza la estrategia de ciberseguridad de una empresa.
Los autores también predicen que surgirán nuevos tipos de ataques a medida que la IA se utilice para automatizar tareas e incluso analizar el comportamiento humano. Los atacantes también aprovecharán las debilidades de las tecnologías de inteligencia artificial, como la fabricación del habla de una persona para obtener acceso a un sistema. Estos ataques no solo amenazarán las prácticas de seguridad digital actuales, sino que también podrían amenazar la seguridad física de una persona al, por ejemplo, hacer que los vehículos autónomos se estrellen. Los ataques de IA también podrían amenazar la seguridad política de un país al enfocar la propaganda, así como mediante el uso de técnicas de vigilancia o engaño automatizadas, como la manipulación de videos.
El documento de 101 páginas, que salió de un taller de dos días en Oxford hace un año, incluía recomendaciones sobre cómo prepararse para el futuro inminente de los ataques de IA. Pero las recomendaciones son más un llamado a la acción que una solución real, que incluyen consejos tan anodinos como la necesidad de una estrecha colaboración entre los responsables políticos y los investigadores, la discusión continua, así como la curaduría y el intercambio de las mejores prácticas sobre cómo manejar la explotación de la tecnología.
Una sección de «preguntas abiertas e intervenciones potenciales» proporciona un foro para ideas más radicales, incluida la sugerencia de retrasar la publicación de algunos hallazgos para que puedan someterse a una «evaluación de riesgos» para «determinar qué nivel de apertura es apropiado». Otra sugerencia fue tomar prestadas técnicas del dominio más maduro de la ciberseguridad, como el equipo rojo, donde un grupo de desarrolladores de inteligencia artificial buscaría y solucionaría las vulnerabilidades de seguridad y aplicaría las mejores prácticas a otras áreas específicas. Los autores también sugieren desarrollar un código de ética que obligue a los investigadores de IA a cumplir con los estándares que incluyen los de responsabilidad social.