A medida que las organizaciones comienzan a trasladar las tecnologías de IA de las pruebas a la implementación, los legisladores y las empresas han comenzado a comprender cuánto está cambiando la IA en el mundo. Ese descubrimiento ha desencadenado debates sobre la regulación de la inteligencia artificial dentro de los círculos gubernamentales y empresariales.
La IA ya está impulsando drásticamente la productividad, ayudando a conectar a las personas de nuevas formas y mejorando la atención médica. Sin embargo, cuando se usa de manera incorrecta o descuidada, la IA puede eliminar trabajos, producir resultados sesgados o racistas e incluso matar.
IA: beneficiosa para los humanos
Como cualquier fuerza poderosa, la IA, específicamente los modelos de aprendizaje profundo, requiere reglas y regulaciones para su desarrollo y uso para prevenir daños innecesarios, según muchos en la comunidad científica. La cantidad de regulación que se necesita, especialmente la regulación gubernamental de la IA, todavía está abierta a mucho debate.
La mayoría de los expertos en inteligencia artificial y los formuladores de políticas están de acuerdo en que pronto se necesita un marco simple de políticas regulatorias, ya que la potencia informática aumenta constantemente, las nuevas empresas de ciencia de datos y inteligencia artificial aparecen casi a diario, y la cantidad de datos que las organizaciones recopilan sobre las personas crece exponencialmente.
«Estamos ante algo que tiene grandes posibilidades, además de serias [implications]», dijo Michael Dukakis, ex gobernador de Massachusetts, durante un panel de discusión en la conferencia del Gobierno Mundial de AI de 2019 en Washington, DC.
Los beneficios de la regulación de la IA
Muchos gobiernos nacionales ya han establecido pautas, aunque a veces vagas, sobre cómo se deben y no se deben utilizar y recopilar los datos. Los gobiernos a menudo trabajan con las principales empresas al debatir la regulación de la IA y cómo se debe hacer cumplir.
Algunas reglas regulatorias también gobiernan cómo la IA debería ser explicable. Actualmente, muchos algoritmos de aprendizaje automático y aprendizaje profundo se ejecutan en una caja negra, o su funcionamiento interno se considera tecnología patentada y está aislado del público. Como resultado, si las empresas no comprenden completamente cómo un modelo de aprendizaje profundo toma una decisión, podrían pasar por alto un resultado sesgado.
Michael DukakisEx gobernador de Massachusetts
Estados Unidos actualizó recientemente sus pautas sobre datos e inteligencia artificial, y Europa marcó recientemente el primer aniversario de su GDPR.
Muchas organizaciones privadas han establecido pautas y regulaciones internas para la IA, y han hecho públicas dichas reglas con la esperanza de que otras empresas las adopten o adapten. La gran cantidad de pautas diferentes que han establecido varios grupos privados indica la amplia gama de diferentes puntos de vista sobre la regulación privada y gubernamental de la IA.
«El gobierno tiene que participar», dijo Dukakis, adoptando una postura clara en el debate sobre la regulación de la IA.
«Estados Unidos tiene que desempeñar un papel importante y constructivo para unir a la comunidad internacional», dijo. Dijo que los países de todo el mundo deben unirse para debates y discusiones significativas, que eventualmente conduzcan a una posible regulación gubernamental internacional de la IA.
La regulación de la IA podría perjudicar a las empresas
Bob Gourley, director de tecnología y cofundador de la consultora OODA, estuvo de acuerdo en que los gobiernos deberían participar, pero dijo que su poder y alcance deberían ser limitados.
«Avancemos más rápido con la tecnología. Estemos preparados para el desplazamiento de puestos de trabajo. Es una preocupación real, pero no instantánea», dijo Gourley durante la mesa redonda.
Si bien la pandemia de COVID-19 ha demostrado al mundo que las empresas pueden automatizar algunos trabajos, como el servicio al cliente, con bastante rapidez, muchos expertos coinciden en que la mayoría de los trabajos humanos no desaparecerán pronto.
Las regulaciones, argumentó Gourley, frenarían el crecimiento tecnológico, aunque señaló que la inteligencia artificial no debería implementarse sin ser probada adecuadamente y sin adherirse a un marco de seguridad.
Varios oradores argumentaron que los gobiernos deberían tomar el liderazgo del sector privado durante otros paneles de discusión en la conferencia.
Las organizaciones deberían centrarse en crear modelos de IA transparentes y explicables antes de que los gobiernos se concentren en la regulación, dijo Michael Nelson, ex profesor de la Universidad de Georgetown.
La falta de inteligencia artificial explicable o transparente ha sido un problema durante mucho tiempo, y los consumidores y las organizaciones argumentan que los proveedores de inteligencia artificial deben hacer más para facilitar la comprensión del funcionamiento interno de los algoritmos.
Nelson también argumentó que demasiada regulación gubernamental de la IA podría sofocar la competencia, que, dijo, es una parte fundamental de la innovación.
Lord Tim Clement-Jones, ex presidente del Comité Selecto de Inteligencia Artificial de la Cámara de los Lores del Reino Unido, estuvo de acuerdo en que la regulación debe minimizarse pero puede ser positiva.
Los gobiernos, dijo, deberían comenzar a trabajar ahora en las pautas y regulaciones de IA.
Pautas como el GDPR han sido efectivas, dijo, y han sentado las bases para una regulación gubernamental más enfocada de la IA.