Skip to content

Inteligencia Artificial: riesgos y normas

En la reciente sesión de la Eurocámara, los 27 países miembros de la Unión Europea han dado su apoyo unánime a la primera legislación mundial diseñada para regular la Inteligencia Artificial. Esta histórica medida, plasmada en la «AI ACT» o Ley de la IA, establecerá las nuevas regulaciones destinadas a salvaguardar el uso ético y seguro de la IA en diversas aplicaciones.

El marco regulatorio actual para la inteligencia artificial contempla una clasificación de los sistemas de IA según su nivel de riesgo, lo que determinará el grado de regulación que se les aplicará. Esta diferenciación es esencial para garantizar que se implementen los controles adecuados sin sofocar la innovación.

La Unión Europea, como parte de su estrategia digital, busca regular la IA con el objetivo de proteger los derechos de los ciudadanos y promover un desarrollo responsable de esta tecnología. La intención no es detener el progreso, sino más bien asegurar que el crecimiento de la IA sea seguro y ético.

¿Qué es la IA?

La Inteligencia Artificial se define como la capacidad de una máquina para realizar tareas que requieren habilidades humanas, como el aprendizaje, la creatividad, la planificación y el razonamiento. Los sistemas de IA pueden analizar datos, ya sea ingresados por humanos (como en el caso de ChatGPT) o capturados mediante sensores como cámaras (por ejemplo, en el reconocimiento facial), procesar esta información y generar respuestas o acciones correspondientes.

En los últimos años, los avances tecnológicos han llevado a grandes progresos en el campo de la inteligencia artificial. Sin embargo, estos avances también han suscitado preocupaciones sobre los posibles riesgos y peligros asociados con el uso indiscriminado de esta tecnología. Es por eso por lo que expertos en el campo han abogado por una regulación adecuada para salvaguardar el bienestar y la seguridad de la sociedad

Ley de la IA

El objetivo de aplicar nuevas normas a la IA dentro de la Unión Europea tiene como finalidad garantizar que todos los sistemas de IA sean seguros, respeten los derechos y principios éticos, abordando los riesgos de los sistemas de IA más potentes e impactantes.

La Ley de la IA forma parte de un grupo de medidas políticas que quiere lograr una IA confiable; Paquete de Innovación en IA y el Plan Coordinado sobre IA. Con ellas, se garantizarán la seguridad y los derechos de las personas y empresas, puesto que existen sistemas de IA que generan riesgos que se deben controlar para evitar resultados devastadores.

Normas IA

La necesidad de establecer unas normas para la IA pretende brindar protección hacia aquellos sistemas de IA que, hoy en día, no se es capaz de entender su manera de tomar una decisión o realizar una acción. Por tanto, evaluar si alguien ha resultado perjudicado por ello, es muy difícil de concretar.

Las reglas que se proponen en la Ley de IA son:

  1. Prohibir prácticas de IA que supongan riesgos inaceptables.
  2. Abordar los riesgos generados por la IA.
  3. Determinar las aplicaciones que supongan un alto riesgo y definir requisitos claros.
  4. Establecer las obligaciones para los implementadores y proveedores de aplicaciones de IA de alto riesgo.
  5. Exigencia de evaluación de conformidad de los sistemas de IA antes de su servicio o comercialización.
  6. Aplicar medidas de cumplimiento después de que un sistema de IA entre en el mercado.
  7. Establecer una estructura de gobernanza a nivel europeo y nacional.

4 niveles de Riesgo

Hay cuatro niveles de riesgo que clasifican a los sistemas de IA: Riesgo mínimo o nulo, Riesgo limitado, Alto riesgo y Riesgo inaceptable.

Todos los sistemas que se consideren una amenaza (Riesgo inaceptable), para la seguridad, los derechos de las personas o para la vida; serán prohibidos.

  • Riesgo mínimo o nulo

La Ley de IA permite el uso gratuito de todas las IA’s que se encuentren dentro de esta categoría. Por ejemplo, videojuegos con IA o los filtros de spam. Actualmente, la gran mayoría de los sistemas de IA que se utilizan en la UE se engloban en esta categoría.

  • Riesgo limitado

Todos aquellos sistemas de Inteligencia artificial que carecen de transparencia en cuanto a su uso. Por eso, se introducen obligaciones exactas sobre transparencia para garantizar que los usuarios estén informados. Esto lo podemos observar en la inteligencia artificial con chats, donde las personas que los utilizan deben ser capaces de reconocer cuándo interactúan con una máquina para así, poder decidir si proceder con esa acción o no. Por otro lado, todos aquellos textos, vídeos, audios o imágenes por IA deberán ser etiquetadas como tal.

  • Riesgo alto

Aquellos sistemas que se han clasificado como IA de alto riesgo son aquellas utilizadas en:

-Infraestructuras que supongan un peligro para la vida y salud de los ciudadanos.

-Dentro del sistema de educación o ámbito profesional en el que se necesite de una puntuación que determine la educación o vida profesional de una persona.

-Componentes de seguridad de los productos (Ej: Robots con IA)

-Procesos de selección y gestión de trabajadores.

-Aquellas servicios públicos y privados esenciales que dependan de clasificaciones para aprobar o denegar algo a un ciudadano.

-Aplicación de la Ley que pueda interferir con los derechos de las personas.

-Gestión de la migración, asilo o controles de fronteras.

-Administración de justicia y procesos democráticos.

Todos estos sistemas de IA de alto riesgo se verán sujetos a estrictas normativas a cumplir antes de poder llevar a cabo su comercialización.

  • Sistemas de identificación biométrica

Todos los sistemas de identificación biométrica se consideran de alto riesgo y se verán sujetos a estrictos requisitos. Aquellos que sean utilizados con fines policiales también tendrán requisitos estrictos, exceptuando aquellos fines policiales para casos específicos como la desaparición de un niño, prevenir una amenaza terrorista o detectar, localizar, identificar y/o procesar al autor de un delito grave. Quedando claro que, para poder hacer uso de la IA, se requiere una autorización judicial previa.

Entrada en vigor

Se anticipa que las regulaciones establecidas por la Ley de IA entrarán en vigor en mayo de 2025, justo un año después de su aprobación. Sin embargo, las disposiciones relacionadas con los sistemas de alto riesgo podrían requerir hasta tres años para ser completamente implementadas.

La supervisión del cumplimiento de estas leyes recaerá en las autoridades de cada país, las cuales deberán establecer agencias nacionales de supervisión. Estas entidades contarán con el respaldo de la Oficina de IA de la Comisión Europea para garantizar una implementación efectiva y uniforme.

Según informes de Euronews, la Comisión Europea ha establecido un plazo de 12 meses para que los países nombren estos organismos de supervisión, lo que subraya la importancia de una rápida acción para asegurar un marco regulatorio sólido y coherente en toda la Unión Europea.

EmpresasInteligencia Artificial
Volver arriba