La nueva frontera de la IA: Europa redefine las reglas del Juego

La nueva frontera de la IA: Europa redefine las reglas del Juego

Jesus Lizarraga, Coordinador del área de Telemática y Ciberseguridad en Mondragon Unibertsitatea
La nueva ley europea de inteligencia artificial: un marco para la ética y la seguridad.
08/04/2024

La Inteligencia Artificial (IA) ha experimentado un desarrollo vertiginoso en los últimos dos años, llegando a todos los ámbitos de nuestra vida tanto personal como profesional.

Sin embargo, este avance acelerado ha ocurrido, en gran medida, sin regulación o apoyándose en regulaciones, como la de protección de datos personales, que no tuvieron en cuenta las posibilidades actuales de la tecnología. Todo esto ha abierto interrogantes sobre su desarrollo y aplicación futura.

La necesidad de una ley de IA se ha hecho evidente a medida que la tecnología ha avanzado y se ha integrado en todos los aspectos de nuestras vidas. Los escenarios extremos y distópicos planteados en películas como Terminator o series como Black Mirror nos advierten de los peligros potenciales de una IA sin control.

En “Terminator”, Skynet es un sistema de IA que se vuelve autónomo y decide exterminar a la humanidad. Por otro lado, “Black Mirror” explora una variedad de futuros posibles y a menudo sombríos donde la tecnología y la IA juegan un papel central. Muchos episodios muestran cómo la IA y otras tecnologías pueden ser utilizadas de formas que invaden la privacidad, manipulan a las personas o causan daño. Estas ficciones que hace años veíamos como lejanas e inverosímiles comienzan a estar cerca de convertirse en una realidad.

Por lo tanto estos escenarios subrayan la necesidad de leyes y regulaciones que protejan a los individuos y a la sociedad de los posibles riesgos asociados con la IA. La nueva Ley Europea de IA es un paso en esta dirección, buscando prevenir el mal uso de la IA y garantizar que se utilice de manera segura y ética.

En este contexto, la Unión Europea (UE) ha dado un paso significativo al aprobar (el pasado 13 de marzo y tras una maratoniana sesión) la primera regulación internacional de Inteligencia Artificial. Esta ley tiene dos objetivos claros: garantizar que la IA que se use en territorio europeo sea segura y respete los derechos de los ciudadanos, y por otra lado estimular la inversión y la innovación en este ámbito.

La ley clasifica los sistemas de IA en cuatro niveles de riesgo:

  • Inaceptable: Prohibidos por completo (p. ej., IA para puntuación social o manipulación subliminal).
  • Alto: Sujetos a requisitos estrictos, incluyendo evaluaciones de impacto y supervisión humana (p. ej., IA para reconocimiento facial en tiempo real o sistemas de IA utilizados en la justicia).
  • Limitado: Sujetos a ciertas obligaciones, como la transparencia y la información al usuario (p. ej., chatbots).
  • Mínimo: Sin requisitos específicos (p. ej., IA para filtros de spam).

La nueva ley europea de IA es un paso importante para garantizar que la IA se desarrolle y utilice de forma responsable. La ley tiene el potencial de proteger a los ciudadanos de los riesgos de la IA, al tiempo que fomenta la innovación en este campo. 

Sin embargo, la ley también tiene algunas limitaciones. Por ejemplo, la ley no define qué se entiende por "riesgo inaceptable" y deja a los Estados miembros la tarea de determinar qué sistemas de IA se consideran de alto riesgo.

En general, la nueva ley europea de IA es un avance positivo que ayudará a dar forma al futuro de la IA. La ley es un equilibrio entre la necesidad de proteger a los ciudadanos y la necesidad de fomentar la innovación. El éxito de la ley dependerá de cómo se aplique y de cómo se adapte a la evolución de la tecnología de la IA.