El Parlamento Europeo ha aprobado un proyecto para regular el uso de la Inteligencia Artificial (IA) en la Unión Europea (UE), marcando el inicio de una delicada negociación con los 27 países miembros.
Regulación de la Inteligencia Artificial en la UE
La plenaria del Parlamento Europeo respaldó el proyecto de regulación de la Inteligencia Artificial con una amplia mayoría de 499 votos a favor, 28 en contra y 93 abstenciones. Esta normativa tiene como objetivo establecer regulaciones acordes al nivel de riesgo que representa la IA, especialmente con relación a los derechos y la salud de las personas.
A mayor riesgo, se impondrán mayores obligaciones a los sistemas tecnológicos.
La urgencia de regular la IA en Europa
Los planes originales de la Unión Europea para regular el uso de la IA datan del año 2021. Sin embargo, la llegada de ChatGPT ha acelerado este proceso al destacar el rápido desarrollo del sector. Ante esta situación, los funcionarios de la UE iniciarán negociaciones directas con los países miembros con el objetivo de alcanzar un acuerdo definitivo para finales de año.
Si no se alcanza este objetivo, la normativa no entraría en vigor hasta el año 2026. Por lo tanto, la Unión Europea también buscará establecer un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.
Un hito en la regulación de la IA
La aprobación del proyecto de regulación de la IA por parte del Parlamento Europeo es considerado un hito significativo. La mayoría de los eurodiputados respaldan esta normativa y reconocen su importancia en el contexto actual.
Durante el debate parlamentario en Estrasburgo, el eurodiputado Dragos Tudorache afirmó: «¿Es este el momento adecuado para que Europa regule la IA? Mi respuesta es rotundamente sí, debido al profundo impacto que tiene la IA».
Margrethe Vestager, vicepresidenta de la Comisión Europea, destacó la necesidad de crear confianza y seguridad jurídica para permitir un desarrollo positivo de la IA.
Niveles de riesgo y clasificación de alto riesgo
La ley propuesta regulará la IA de acuerdo al nivel de riesgo que representa. Cuanto mayor sea el riesgo para los derechos o la salud de las personas, mayores serán las obligaciones impuestas a los sistemas. La lista de alto riesgo propuesta por la UE incluye el uso de IA en infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración.
El Parlamento Europeo ha agregado condiciones adicionales para la clasificación de alto riesgo, considerando aspectos como el posible daño a la salud, la seguridad, los derechos fundamentales y el medio ambiente.
Regulaciones especiales para sistemas de IA generativa
La normativa también establece requisitos especiales para los sistemas de IA generativa, como ChatGPT y DALL-E, que son capaces de producir texto, imágenes, código, audio y otros medios. Estos sistemas deberán informar a los usuarios de que el contenido fue generado por una máquina y no por un ser humano.
Un enfoque común y la prohibición de sistemas de IA
Legisladores como Brando Benifei han solicitado un «enfoque común» para abordar los riesgos de la IA, enfatizando la importancia de comparar notas con legisladores de todo el mundo. Además, se propone la prohibición de sistemas de IA de vigilancia biométrica, reconocimiento de emociones y vigilancia predictiva.
La propagación de fotos engañosas en sitios web sociales a través de herramientas de Inteligencia Artificial ha generado inquietud por los peligros que suponen para la opinión pública y la democracia. Como resultado, científicos europeos han pedido una pausa en el avance de tales sistemas hasta que sean debidamente regulados por la ley.
En esencia
- 🔍 El Parlamento Europeo aprueba regulaciones para el uso de la IA en la UE.
- ⚖️ La normativa se basa en el nivel de riesgo que representa la IA.
- 📆 Se iniciarán negociaciones con los países miembros para llegar a un acuerdo definitivo.
- 🤝 Se busca crear confianza y seguridad jurídica en el desarrollo de la IA.
- 🚫 Se propone prohibir sistemas de IA invasivos y se alerta sobre los peligros de la manipulación y la falta de regulación.