Skip to main content

Así es la primera Ley de Inteligencia Artificial

Miguel Ángel Ossorio Vega| 18 de diciembre de 2023

El viernes día 8 de diciembre ocurrió un hecho histórico: la Unión Europea acordó una normativa sobre inteligencia artificial, lo que la convierte en la primera gran regulación de esta tecnología tan actual en Estados Unidos y Europa. Antes de que entre en vigor dicho acuerdo, debe de ser ratificado. Así es la primera Ley de Inteligencia Artificial: tras años de esfuerzos por regular esta tecnología, parece que ya se ve la luz al final del túnel.

SOBRE QUÉ TRATA EL REGLAMENTO

“El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”, ha asegurado en X (antes Twitter) la Presidencia española del Consejo de la UE. 

El poder garantizar el acuerdo y mantenerlo en el futuro, era uno de los grandes objetivos de la Unión Europea. Al ser una tecnología tan reciente, todos sabemos que durante un futuro no muy lejano, podrá cambiar y evolucionar. Para evitar que esta Ley se quede obsoleta, se ha negociado una ley «a prueba de futuro». De esta manera, contamos con una ley con la flexibilidad suficiente para poder hacer próximas regulaciones, según vaya avanzando la tecnología y lo vayamos necesitando. Proteger a los ciudadanos de los efectos negativos de la inteligencia artificial es una de las prioridades. Y regular la videovigilancia o el control sobre los derechos de autor de las imágenes usadas también forma parte del reglamento.

¿APLICACIONES PROHIBIDAS?

Sí, los legisladores de la Unión Europea se han puesto de acuerdo para prohibir algunas aplicaciones. Esta tecnología ha llegado para quedarse y nos cambiará la vida completamente en un medio plazo. De ahí, que igual que tiene muchísimas posibilidades, también existen riesgos y la maquinaria ya está funcionando para controlarlos. Estas son algunas de las aplicaciones prohibidas:

  • Los sistemas de categorización biométrica si utilizan características sensibles, por ejemplo: creencias políticas, religiosas, filosóficas, orientación sexual, raza…
  • La extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV (circuito cerrado de televisión) para crear bases de datos de reconocimiento facial.
  • Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Sistemas de inteligencia artificial que manipulan el comportamiento humano.
  • Puntuación social basada en el comportamiento social o las características personales.
  • Por último, la inteligencia artificial utilizada para explotar las vulnerabilidades de las personas (por motivos de edad, discapacidad, situación económica o social).

¿HABRÁ SANCIONES?

Sí, las habrá si hay incumplimiento sobre la Ley de Inteligencia Artificial. Las multas podrían oscilar entre 35 millones de euros o el 7% de la facturación global y 7,5 millones o el 1,5% de la facturación, dependiendo de la infracción y del tamaño de la empresa que haya sido multada.

La nueva Ley de Inteligencia Artificial entrará en vigor en 2026, llegando a los diferentes ordenamientos jurídicos de los países miembros de la Unión Europea. El proyecto de reglamento se debería publicar en unos doce meses y los detalles finales entrarán en vigor en torno a los veinticuatro meses.

¿AFECTARÁ A CHATGPT ESTA NUEVA LEY?

Que ChatGPT es la gran revolución de los últimos años es un hecho. Ha marcado la vida de muchas personas que utilizan esta tecnología a diario. La nueva Ley de Inteligencia Artificial aprobada recientemente por la Unión Europea no se quedará atrás, y afectará directamente sobre el uso de ChatGPT. Éste tendrá que comenzar a adaptarse a la nueva normativa si quiere evitar las multas.

Aunque ChatGPT está catalogado en un nivel bajo de riesgo (la legislación marca cuatro niveles de riesgo que asigna a las IA en función de sus usos), y su funcionamiento no se va a ver del todo afectado por la normativa, sí que hay que tener algo en cuenta. Se le exigirá a OpenAI diferentes medidas en materia de transparencia. Los usuarios deben ser conscientes de que están hablando con una inteligencia artificial. Por lo tanto, el contenido generado por ChatGPT va a tener que ser categorizado como «generado o manipulado artificialmente».

OBJETIVO: LA SEGURIDAD

El estudio de ciertas aplicaciones de IA ha sido principalmente por considerarlas como amenaza para los derechos de los ciudadanos. “Los principales riesgos que se buscan mitigar son de carácter social y de seguridad nacional, ya que la mayoría de las excepciones serán para las búsquedas de una persona condenada o sospechosa de haber cometido un delito grave”, explica el experto en IA José Antonio Pinilla, chairman y CEO de Asseco Spain Group.

Otra de las novedades incluidas en esta ley es una evaluación obligatoria del impacto en los derechos fundamentales. Además, detalla el experto, los ciudadanos tendrán derecho a presentar quejas sobre sistemas de IA y recibir explicaciones sobre decisiones basadas en sistemas de inteligencia artificial de alto riesgo que impacten en sus derechos.

Se espera con impaciencia ver cómo va evolucionando esta nueva tecnología, al igual que ver cómo se va adaptando la normativa a la Inteligencia Artificial. ¿Dónde está el límite?

OTROS ARTÍCULOS DE ESTE AUTOR
NOTICIAS RELACIONADAS

Suscríbete ahora

LO MÁS DESTACADO