La propuesta de la Comisión Europa para regular la inteligencia artificial establece cuatro niveles de riesgo, normas deberán ser implementadas por todos los Estados Miembros, se excluye de la normativa los usos de la IA a nivel militar.

Europa quiere impulsar el desarrollo de estándares para la IA y propone a las distintas organizaciones nacionales que supervisen esta normativa.

La UE establece cuatro tipos de riesgos diferentes:

La Unión Europea establece algunas líneas rojas y prohibirá determinados usos de la IA, como los sistemas de “puntuación social” por parte de gobiernos.

 “Alto riesgo” se incluyen usos de la IA en infraestructuras críticas que puedan afectar a la salud de los ciudadanos, IA para afectar a la educación y por ejemplo permita hacer trampas en exámenes, componentes en cirugía, sistemas de reclutamiento de personal, servicios públicos, legislación, inmigración o IA para la administración o justicia. En todos estos ámbitos, la IA deberá estar sujeta a obligaciones estrictas,

Riesgo limitado” se incluyen los sistemas como chatbots, que deberán tener un mínimo nivel de transparencia y donde los usuarios deberán ser advertidos que están hablando con una máquina.

Riesgo mínimo” se engloba el resto de usos, para videojuegos, aplicaciones de imagen u otros sistemas de IA que no implican riesgos. En estos casos, la nueva normativa no especifica ninguna medida.

La Eurocámara y los distintos gobiernos de la Unión Europea todavía tienen que aprobar este nuevo reglamento, un proceso que podría alargar más de un año la implementación de estas medidas.

Ver Programa Profesional en las Ciencias Sociales & Jurídicas