¿Alguien de su equipo usa DeepL, ChatGPT, Mistral, u otras plataformas de inteligencia artificial (IA)? Si es así, su empresa debe cumplir con la Ley de IA de la Unión Europea, que entró en vigor el 2 de agosto de 2024. Hace poco, esta compleja legislación, de amplio alcance, volvió a ser noticia porque se aproxima el 2 de agosto de 2025, fecha en la que comienzan a regir las obligaciones para la IA de uso general (GPAI, por sus siglas en inglés) para sistemas como los bots conversacionales (ChatGPT, Gemini, Copilot, etc.).
¿Cómo afecta esta ley a su empresa? Para enterarse de los puntos destacados y averiguar qué necesita hacer para aplicar “inteligencia artificial confiable y centrada en los seres humanos”, que cumpla con la Ley de IA, siga leyendo.
¿Para qué empresas rige la Ley de IA?
La norma establece siete categorías de empresas y personas para las cuales rige la Ley. En este artículo, nos enfocaremos en las dos principales:
- empresas que desarrollan sistemas o modelos de IA para su uso en la Unión Europea, cualquiera sea el lugar donde se encuentre su sede (llamadas “proveedores”);
- empresas que usan sistemas de IA o resultados de salida de dichos sistemas en la Unión Europea, cualquiera sea el lugar en el que se encuentren ubicadas (conocidas como “responsables del despliegue”).
¿Qué sistemas de IA regula la Ley?
Ahora, que hemos hablado de para quién rige la ley, veamos los tipos de IA que regula. Según una publicación sumaria del centro de estudios del Parlamento Europeo, “la Ley de Inteligencia Artificial (IA) regula los sistemas de IA según los riesgos que plantean, y los modelos de IA de uso general (GPAI) según sus capacidades”.
La Ley de IA prohíbe de manera explícita ciertos usos de la IA considerados riesgos inaceptables y establece un conjunto definido de requisitos para desarrolladores y usuarios de sistemas de IA de alto riesgo que “podrían tener un considerable efecto perjudicial en la salud, la seguridad o derechos fundamentales de las personas”.
La Comisión Europea divide los sistemas de IA en cuatro niveles de riesgo:
- Riesgo inaceptable:
Los usos de esta categoría se prohíben por completo. Incluyen la IA manipulativa, la puntuación ciudadana, la vigilancia predictiva, el reconocimiento de emociones en lugares de trabajo y la vigilancia biométrica en tiempo real en espacios públicos. - Alto riesgo:
Esta designación cubre sistemas estrictamente regulados que se usan en sectores críticos tales como los de atención médica, conducción autónoma, contratación, policía, finanzas, y educación. Los proveedores deben llevar a cabo evaluaciones de riesgos, conservar documentación, implementar supervisión humana, y someterse a evaluaciones de conformidad. - Riesgo limitado:
Incluye bots conversacionales (como ChatGPT) o generadores de contenido. La Ley incluye obligaciones de transparencia para dichos sistemas. Por ejemplo, debe quedarles claro a los usuarios cuando se usó IA para generar o manipular una foto o un video. - Riesgo mínimo o ausencia de riesgo:
La Comisión dice que “la vasta mayoría de los sistemas de IA que en la actualidad se usan en la UE pertenecen a esta categoría” y tienen muy pocos efectos o ninguno en absoluto en los derechos y en la seguridad. Incluye cosas tales como videojuegos con IA o filtros de correo basura. La Ley no regula dichos sistemas, pero recomienda a los proveedores y a los responsables del despliegue que apliquen procesos por propia voluntad.
La Ley establece que los sistemas de IA de los siguientes sectores son de alto riesgo:
- Datos biométricos
- Infraestructuras críticas: digitales, de tráfico rodado, de suministro de agua, gas, calefacción o electricidad
- Educación y formación profesional
- Empleo
- Servicios privados esenciales y servicios y prestaciones públicos esenciales
- Fuerzas y cuerpos de seguridad
- Gestión de la migración, el asilo y el control de fronteras
- Administración de justicia y procesos democráticos
¿Cuáles son los plazos para cumplir con la ley?
Los requisitos de la Ley de IA han ido entrando en vigor de a poco desde que se la promulgó en 2024. Por ejemplo, se prohibieron los usos de alto riesgo y el 2 de febrero de 2025 entraron en vigor nuevas obligaciones de alfabetización en materia de IA.
La próxima fecha tope importante es el 2 de agosto de 2025 , sobre todo enfocada en requisitos para modelos de GPAI. Los nuevos modelos de GPAI lanzados después de dicha fecha deben cumplir con la Ley de IA, pero los modelos actuales no tienen la obligación de ajustarse por completo a ella hasta el 2 de agosto de 2027. Mientras tanto, no queda claro todavía cuántos ajustes puede hacerle una empresa a un modelo antes de que se lo considere una nueva versión y, por ende, se encuentre de inmediato regulado por las disposiciones de la Ley.
Las reglas de clasificación para sistemas de IA de alto riesgo y las obligaciones correspondientes comenzarán a estar vigentes el 2 de agosto de 2027.
¿Qué debería hacer su empresa?
La mayoría de las empresas pertenecen a la categoría de “responsable del despliegue”, incluso cuando ajusten un modelo de IA para uso interno. Como responsable del despliegue, tiene las siguientes responsabilidades:
- verificar que su personal use el sistema de IA de una manera segura y que se ajuste a los requisitos de la norma;
- brindar formación sobre alfabetización en materia de IA (Artículo 4), supervisión humana (Artículo 14), y transparencia (Artículo 13), según cómo se use la IA;
- cumplir con otras obligaciones tales como registro, vigilancia y gestión de riesgos, si su sistema se encuentra en una categoría de alto riesgo.
Tenga en cuenta las siguientes preguntas como punto de partida para evaluar cómo la Ley de IA afecta a su empresa.
- ¿Cómo se usa la IA en nuestra empresa? ¿Quién está usándola? ¿Cómo se documenta su uso?
- ¿Qué normas y procedimientos rigen el uso de IA en nuestra empresa?
- ¿Los seres humanos revisan siempre el contenido generado por IA? ¿Las fotos y los videos generados con IA se etiquetan con claridad?
- ¿Pertenecemos al segmento de alto riesgo? Si es así, ¿cómo estamos preparándonos para cumplir con los requisitos para los sistemas de IA de alto riesgo?
- ¿Brindamos a nuestros empleados formación sobre alfabetización en materia de IA? ¿Cómo documentamos esa formación?
¿No sabe a qué categoría pertenece su empresa y si sus sistemas de IA se consideran de alto riesgo? Pruebe el Verificador de cumplimiento de la Ley de IA de la UE del Instituto del Futuro de la Vida.
Lo que necesita saber sobre la alfabetización en materia de IA según la Ley de IA de la UE
- La alfabetización en materia de IA ahora es un requisito
Desde el 2 de febrero de 2025, las empresas que desarrollen o usen sistemas de IA en la UE deben asegurarse de que las personas que interactúen con IA tengan “suficiente alfabetización en materia de IA”. - No es solo para desarrolladores
La alfabetización en materia de IA no es solo para equipos técnicos. Rige para empleados, colaboradores externos, proveedores de servicio, e incluso clientes que usen sistemas de IA o se encuentren afectados por ellos. - La alfabetización en materia de IA implica más que saber cómo funciona la IA
Las personas deberían entender qué puede hacer y qué no puede hacer la IA, sus riesgos y ventajas, y cómo usarla con responsabilidad. Eso incluye obligaciones jurídicas y éticas como transparencia y supervisión humana. - La formación debe ser personalizada
No hay una única metodología válida para todos. El nivel de formación depende de:
o si está desarrollando o desplegando IA;
o o el tipo de sistema involucrado (básico o de alto riesgo);
o la experiencia y la función de cada grupo de usuarios. - La documentación es más importante que la certificación
No necesita certificados de formación oficiales, pero debe guardar registros internos que muestren que el personal ha recibido orientación o formación apropiadas. - No basta con solo dar instrucciones
Tan solo distribuir manuales no es suficiente —en especial cuando se trata de sistemas de IA de alto riesgo. Se espera que la formación o incorporación sea significativa. - A partir de agosto de 2026 comienzan a aplicarse multas
La ley comienza a aplicarse en agosto de 2026, lo cual les da a las organizaciones tiempo para establecer la formación y la documentación adecuadas —pero la obligación ya se encuentra vigente, así que no espere. - Tiene a su disposición recursos útiles
La UE brinda asistencia tal como el Pacto de IA, ejemplos de formación, seminarios web, y borradores de enseñanza. Pueden ayudarle a desarrollar programas de alfabetización prácticos, basados en la función.
¿Cuáles son las multas por no cumplir con la ley?
- Violaciones de riesgo inaceptable: hasta € 35 millones o el 7 % de los ingresos globales
- Violaciones de alto riesgo o GPAI: hasta € 15 millones o el 3 % de los ingresos
- Información falsa o engañosa proporcionada a organismos gubernamentales: hasta € 7,5 millones o el 1,5 % de los ingresos
A las empresas más pequeñas y a las emergentes se les impondrán multas proporcionales y se les brindará acceso a programas de asistencia como entornos de prueba regulatoria.
¿Qué está diciendo el sector tecnológico?
El 3 de julio, empresas tecnológicas europeas de primer nivel, entre ellas Mistral y otras empresas grandes como Airbus y Carrefour, publicaron una carta abierta a la Comisión Europea para expresar sus inquietudes sobre esta legislación y solicitaron a la UE demorar la aplicación de la ley. Dicen que hay obligaciones fundamentales que no quedan lo suficientemente claras y necesitan más tiempo para cumplir con los plazos. Dichas empresas sostienen que, si las empresas de otras regiones se encuentran sometidas a leyes más laxas o de aplicación más lenta, la aplicación apresurada puede perjudicar la innovación y su competitividad internacional.
No obstante, el 4 de julio, Thomas Regnier, vocero de la Comisión Europea, declaró, “De hecho, he visto muchos reportajes, muchas cartas y muchas cosas sobre la Ley de IA. Permítanme ser lo más claro posible: el reloj no se detendrá. No hay período de gracia. No hay pausa”, informó Reuters.
El 10 de julio, la Comisión publicó un Código de buenas prácticas para la IA de uso general, diseñado para ayudarles a los proveedores a cumplir con las disposiciones de la Ley de IA que entrarán en vigor el 2 de agosto . Según la Comisión, “los proveedores de modelos de IA que lo firmen voluntariamente pueden demostrar que cumplen con la Ley de IA mediante su adhesión al Código. Esto reducirá su carga administrativa y les dará más seguridad jurídica que si demostraran su cumplimiento por otros métodos”.
Según Político, Mistral, con sede en Francia, fue la primera empresa de IA en anunciar que firmaría el Código de buenas prácticas. El 11 de julio, OpenAI (ChatGPT), con sede en los Estados Unidos, anunció que también ha decidido firmar el Código. Lo mantendremos al tanto sobre si otras empresas tecnológicas grandes, como Alphabet y Meta, lo firman y los efectos resultantes en su empresa.
ITC Global: su colaborador para cumplir con la Ley de IA
El panorama de la IA es complejo y está en constante evolución. Hacer un seguimiento de cómo se usa la IA en su empresa y verificar que todos cumplan con las reglas es difícil. ¡Estamos para ayudarle! Nuestro equipo de Investigación y desarrollo e ingeniería en innovación se mantiene al tanto de las últimas novedades y se asegura de que nuestros sistemas y procesos cumplan por completo con la Ley de IA para que usted pueda concentrarse en llegar a nuevos mercados con confianza.
También le ayudamos a eliminar otros riesgos comunes vinculados con el uso de IA en flujos de trabajo de contenido internacional:
- Protección de datos: Cuando el personal utiliza herramientas gratuitas o personales de IA sin los controles apropiados
- Contenido incoherente: Cuando diferentes equipos utilizan distintas herramientas o distintos métodos para traducir el mismo material
- Problemas de precisión: Cuando un ser humano no revisa con atención contenido generado con IA
- Reputación de la marca: Cuando contenido de baja calidad o no editado, generado con IA, afecta cómo se perciben su empresa, sus productos y sus servicios
Comuníquese hoy mismo con nosotros para conocer más en detalle la Ley de IA y enterarse de cómo ITC Global le ayuda a usar la IA con responsabilidad para potenciar su crecimiento.