A medida que las empresas y los ejércitos invierten miles de millones de dólares en el desarrollo de IA, se dice que la necesidad de regulación es crítica.
Imagine una IA avanzada que obtiene acceso a códigos nucleares y decide lanzar armas. Si bien puede parecer ciencia ficción, la verdad es que tal situación no será tan ridícula dentro de unos años.
Algunos políticos dicen que pueden regular la IA con leyes estrictas. Pero esto parece ser el sueño de un tonto a largo plazo.
Hacer frente a los riesgos de la IA
A Yoshua Bengio, considerado uno de los padres fundadores del aprendizaje profundo, le preocupa que las empresas y los gobiernos estén comenzando a usar la IA de manera irresponsable.
«Los drones asesinos son una gran preocupación»,
señaló a Nature.
Una IA suficientemente avanzada puede lanzar armas por sí sola, provocar un colapso en los mercados financieros y manipular las opiniones de las personas en línea, todo porque cree que es correcto.
Para mantener estos riesgos bajo control, los legisladores deben establecer regulaciones que prohíban el uso de la IA en campos que se consideran «sensibles«.
Pero esto es más fácil decirlo que hacerlo. La mayoría de los países con un ejército poderoso ya tienen departamentos de IA dedicados al uso de la tecnología.
¿Cómo pueden entonces los legisladores regular la IA? Si una región está desarrollando un sistema de IA a nivel nacional diseñado para «defender sus fronteras», los políticos obviamente no pueden bloquear el programa.
Entonces, la siguiente pregunta es ¿pueden los políticos y los militares mantener la IA bajo control y asegurarse de que no se vuelva «deshonesta»?
Esto también parece imposible. Una IA, por su propia naturaleza, es muy superior a los seres humanos en inteligencia computacional.
No importa qué tan seguros sean los seres humanos de la IA, una Inteligencia Artificial verdaderamente avanzada podrá evitar las restricciones y hacer lo que considere correcto.
Desafortunadamente, parece que no hay manera de garantizar que un sistema de IA siempre va a estar bajo el control de los seres humanos.
A corto plazo, podemos ser capaces de regularlo. Pero con el tiempo, a medida que la IA recopila más datos y evoluciona, inevitablemente comenzará a tomar decisiones por su cuenta.
No es de extrañar entonces que Elon Musk hablara de las IA como mucho más peligrosas que las armas nucleares.
Leyes de la UE
En abril, la Unión Europea aprobó un conjunto de leyes que las empresas de investigación de IA deben seguir.
De acuerdo con las nuevas reglas, las empresas deben considerar los siguientes siete factores al desarrollar o desplegar IA:
- Robustez y seguridad,
- Transparencia,
- Supervisión humana,
- Responsabilidad,
- Privacidad y gobernanza de datos,
- Diversidad y no discriminación,
- Y bienestar social y ambiental.
“Hoy, en la UE estamos dando un paso importante hacia una IA ética y segura. Ahora tenemos una base sólida fundamentada en los valores de la UE y siguiendo un compromiso amplio y constructivo de muchas partes interesadas, incluidas las empresas, el mundo académico y la sociedad civil.
Ahora pondremos en práctica estos requisitos y al mismo tiempo fomentaremos una discusión internacional sobre la IA centrada en el ser humano”,
indicó en un comunicado (Europa) Mariya Gabriel, Comisionada de Economía y Sociedad Digital.
Los críticos no están muy contentos con las reglas, ya que sienten que no son lo suficientemente completas como para mantener los sistemas de inteligencia artificial alineados con los valores humanos.
Eline Chivot, analista senior de políticas en el grupo de expertos del Centro para la Innovación de Datos, comentó que la UE no está en condiciones de ser un líder en IA ética, ya que la región no lidera el desarrollo de IA.