Gratis & sin compromisoHabla con Paolo ahora
Reservar llamada →
Blog

AI Act UE 2023: Análisis Detallado sobre los Logros y Áreas de Mejora

Simone Bersani
Simone Bersani
8 min
AI Act UE 2023: Análisis Detallado sobre los Logros y Áreas de Mejora

AI Act UE 2023: Análisis Detallado sobre los Logros y Áreas de Mejora

Si tienes curiosidad por saber más sobre el AI Act, ¡estás en el lugar correcto!

Te ofreceremos una visión general clara y detallada de esta legislación revolucionaria. Explorarás los distintos aspectos e implicaciones de esta normativa, comprendiendo mejor cómo la UE está dando forma al futuro de la IA. ¡Continúa leyendo para adentrarte en un mundo donde la innovación se encuentra con la responsabilidad!

Empecemos por lo básico... ¿qué es el AI Act?

El AI Act (Ley de Inteligencia Artificial) es una propuesta legislativa de la Unión Europea que tiene como objetivo regular el uso de la inteligencia artificial (IA) dentro de los Estados miembros.

Este acto representa uno de los primeros intentos a nivel mundial de crear un marco normativo completo para la IA, abordando una serie de desafíos y riesgos asociados a esta tecnología en rápida evolución.

El AI Act es una parte fundamental de la estrategia de la UE para modelar el desarrollo y el uso de la IA de manera que sea segura, ética y alineada con los valores y normativas europeas.

Introducción: La Unión Europea y el AI Act

La adopción del AI Act en la Unión Europea representa un momento crucial para el futuro de la inteligencia artificial.

Esta legislación, única en su género, se propone navegar el delicado equilibrio entre el progreso tecnológico y la salvaguarda de los valores fundamentales de la sociedad.

A medida que la IA continúa permeando todos los aspectos de nuestra vida, desde la seguridad nacional hasta la vida cotidiana, el AI Act emerge como un faro de regulación, estableciendo estándares que podrían moldear el uso responsable de la IA a nivel global.

En este contexto dinámico, exploramos cómo la UE se posiciona a la vanguardia de esta revolución, marcando un camino que otros podrían seguir.

Proporcionar un marco jurídico integral

El corazón del AI Act de la UE es su compromiso de regular de manera responsable y cuidadosa las aplicaciones de la inteligencia artificial, con un énfasis específico en las consideradas de alto riesgo.

Esta sección de la ley aborda de manera crítica el uso de la IA en sectores sensibles como la aplicación de la ley y la gestión de servicios esenciales, destacando la necesidad de una supervisión rigurosa.

Es un punto focal que refleja el deseo de la UE de equilibrar el progreso tecnológico con la seguridad y la ética, garantizando que la IA se utilice de formas que mejoren la sociedad sin comprometer sus valores fundamentales.

Prioridades de la UE: La Protección de la Privacidad

La protección de la privacidad de los ciudadanos siempre ha sido una prioridad para la UE, como demuestra el conocido reglamento GDPR para la protección de datos en línea.

Con la evolución de la IA, que amenaza potencialmente la seguridad de los datos personales, la UE ha actuado con prontitud.

Uno de los temas más controvertidos se refería al uso de la IA en la vigilancia y la protección del orden público, como el reconocimiento biométrico en tiempo real o el uso de algoritmos para predecir delitos.

Finalmente, se decidió la prohibición del reconocimiento biométrico, con excepción de tres casos específicos:

  1. En presencia de una amenaza inminente de ataque terrorista.

  2. Para la búsqueda de personas desaparecidas.

  3. Para la investigación de delitos graves.

Regulación de los Modelos de Lenguaje y los Deep Fakes

Además de esto, se introdujo una regulación para los modelos de lenguaje avanzados como GPT-4 y LaMDA de Google, que requerirán normativas estrictas en términos de transparencia y seguridad informática.

Asimismo, se abordó el tema de los deep fakes —contenidos audiovisuales creados por la IA que imitan de manera realista el aspecto y la voz humana—, los cuales deberán llevar una marca de agua digital específica, además de una cadena de texto que informe al usuario de su naturaleza no auténtica.

En lo que respecta a los chatbots de IA, solo se les permitirá utilizar fuentes cuyos derechos de autor no hayan sido revocados.

Las empresas que infrinjan las normas se arriesgan a multas de hasta el 7% de sus ventas globales.

Protección de los Derechos Fundamentales

Los creadores de los sistemas de inteligencia artificial genérica más grandes, como los que alimentan el chatbot ChatGPT, tendrán que hacer frente a nuevos

requisitos de transparencia. Según los funcionarios de la UE y los borradores anteriores de la ley, los chatbots y los programas que crean imágenes manipuladas como los "deepfakes" deberían aclarar que lo que las personas ven ha sido generado por inteligencia artificial.

El AI Act pretende salvaguardar los derechos fundamentales de las personas, poniendo especial énfasis en la prevención de discriminaciones, violaciones de la privacidad y otros daños potenciales causados por el uso indebido de la IA.

Aunque se ha alcanzado el acuerdo político sobre el AI Act, el proceso para su plena implementación y aplicación todavía está en marcha.

Esto incluye la finalización de detalles técnicos y la aprobación formal tanto por el Parlamento Europeo como por el Consejo Europeo, hasta el último momento de las negociaciones hubo un acalorado debate entre políticos y naciones sobre la terminología a utilizar y cómo encontrar un equilibrio entre la promoción de la innovación y la necesidad de proteger a la sociedad de los riesgos potenciales.

La conclusión del acuerdo en Bruselas implicó una intensa fase de negociaciones de tres días, con una épica sesión inaugural de 22 horas que comenzó el miércoles por la tarde y se prolongó hasta el día siguiente.

El texto final del acuerdo no fue publicado de inmediato, ya que se preveía que las discusiones continuarían a puerta cerrada para perfilar los detalles técnicos, lo que podría retrasar el trámite final.

Las decisiones finales deberán ser tomadas por el Parlamento y el Consejo Europeo, que cuenta con representantes de los 27 países miembros de la Unión.

Hagamos pues un resumen conjunto y veamos cuáles han sido los logros y cuáles las áreas de mejora.

  1. Regulación Basada en el Riesgo: El AI Act ha introducido un enfoque basado en el riesgo para clasificar los sistemas de IA. Este método permite identificar y gestionar adecuadamente los riesgos asociados al uso de la IA, garantizando la seguridad y el respeto de los derechos fundamentales.

  2. Transparencia y Responsabilidad: El énfasis en aumentar la transparencia y la responsabilidad de los sistemas de IA es un paso adelante significativo. Los requisitos para la identificación clara de los chatbots y los deepfakes aumentan la conciencia de los usuarios sobre el origen artificial de los contenidos.

  3. Limitaciones al Uso del Reconocimiento Facial: El reglamento impone restricciones estrictas al uso del reconocimiento facial por parte de la policía y los gobiernos, protegiendo la privacidad y previniendo posibles abusos.

  4. Salvaguarda de los Derechos Fundamentales: El AI Act pretende proteger los derechos fundamentales de las personas del uso no ético de la IA, en particular en los ámbitos de la no discriminación y la protección de la privacidad.

  5. Posicionamiento Internacional: Europa se ha posicionado como líder en la regulación global de la IA, estableciendo un modelo para otros países y regiones.

Áreas de Mejora

  1. Plazos de Implementación: Existen preocupaciones sobre el calendario de implementación del AI Act, con algunos aspectos de la política que podrían no aplicarse antes de 12-24 meses, un período considerable dado el rápido desarrollo de la IA.

  2. Claridad y Definiciones: Es necesaria una mayor claridad en las definiciones y los términos utilizados en el AI Act, en particular en lo que respecta a la clasificación de riesgos y las definiciones técnicas.

  3. Equilibrio entre Innovación y Seguridad: Existe una tensión continua entre la necesidad de promover la innovación en la IA y la necesidad de proteger a la sociedad de sus posibles daños.

  4. Coordinación y Aplicación: La necesidad de coordinación entre los Estados miembros para la aplicación efectiva del AI Act sigue siendo un desafío. Además, la falta de mecanismos claros para la aplicación y el control podría limitar la eficacia del reglamento.

  5. Impacto en las Pequeñas y Medianas Empresas (PYMEs): Existe la preocupación de que los requisitos del AI Act puedan ser gravosos para las PYMEs, limitando su capacidad de innovar en el ámbito de la IA.

Impactos en el Desarrollo Tecnológico

Esta nueva normativa, denominada AI Act, ha suscitado reacciones mixtas en el sector tecnológico.

Algunas de las mayores empresas tecnológicas han expresado su preocupación, temiendo que pueda ralentizar significativamente el progreso en el ámbito de la IA.

Sin embargo, las empresas disponen ahora de un período que oscila entre 6 y 24 meses para adaptarse a estas nuevas normas.

En conclusión, el enfoque de la UE pone de manifiesto un firme compromiso con la protección de la privacidad y la seguridad de sus ciudadanos, incluso a costa de un posible freno en el desarrollo tecnológico; esta decisión, aunque pueda parecer un obstáculo, podría en realidad representar un paso meditado y necesario hacia un futuro más seguro y controlado en el ámbito de la inteligencia artificial.

Esperamos que esta panorámica sobre el AI Act de la Unión Europea haya sido clara y útil. Hemos intentado ofrecer una visión equilibrada de sus logros y de las áreas que necesitan mejoras, destacando su papel significativo en la regulación de la inteligencia artificial.