1. Introducción al AI ACT
¿Qué es el AI ACT?
El Reglamento de Inteligencia Artificial (AI ACT) es el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, adoptado el 13 de junio de 2024, que establece normas armonizadas sobre inteligencia artificial en la Unión Europea.
Este reglamento establece un marco jurídico uniforme para el desarrollo, comercialización y uso de sistemas de inteligencia artificial, garantizando que estos sistemas sean seguros, transparentes y respetuosos con los derechos fundamentales. El AI ACT entrará en pleno vigor el 2 de agosto de 2026.
El AI ACT adopta un enfoque basado en riesgos, clasificando los sistemas de IA según el nivel de riesgo que representan para la seguridad y los derechos fundamentales de las personas, estableciendo obligaciones proporcionales para cada categoría.
Calendario de Implementación Escalonada del AI ACT
El AI ACT se aplica de forma gradual según diferentes hitos temporales:
1 de febrero de 2025: Prohibición de sistemas de riesgo inaceptable
Entrada en vigor de las prohibiciones de sistemas de IA que presentan riesgos inaceptables (social scoring, manipulación subliminal, etc.)
2 de agosto de 2025: Códigos de conducta y modelos de IA de propósito general
Obligaciones para proveedores de modelos de IA de propósito general (GPAI) y códigos de conducta para sistemas de riesgo limitado
2 de agosto de 2026: Aplicación completa del AI ACT
Fecha de plena aplicación de todas las obligaciones del AI ACT, incluyendo sistemas de alto riesgo y obligaciones de transparencia para sistemas de riesgo limitado. Esta es la fecha clave para el cumplimiento de AlignIA.
2 de agosto de 2027: Transición completa para sistemas ya comercializados
Fecha límite para que sistemas de IA de alto riesgo ya en el mercado antes de agosto de 2024 cumplan completamente con el AI ACT
Compromiso de AlignIA con el AI ACT
UTILIA SERVICIOS IA S.COOP.CAN (en adelante, UTILIA), como proveedor de AlignIA, se compromete a cumplir plenamente con todas las obligaciones establecidas en el AI ACT, garantizando:
- Transparencia total sobre el uso de sistemas de inteligencia artificial
- Clasificación adecuada de nuestros sistemas de IA según niveles de riesgo
- Supervisión humana obligatoria en todas las decisiones importantes
- Protección de los derechos de los usuarios ante sistemas automatizados
- Gobernanza y rendición de cuentas en el uso de IA
- Coordinación con el RGPD para protección de datos personales
Alcance de este Documento
Este documento describe cómo AlignIA cumple con las obligaciones del AI ACT, proporcionando información completa y transparente sobre:
- -Los sistemas de inteligencia artificial que utilizamos y su propósito
- -La clasificación de riesgo de nuestros sistemas de IA
- -Las obligaciones de transparencia que cumplimos
- -Los derechos de los usuarios ante el uso de IA
- -Las medidas de supervisión humana implementadas
- -La gobernanza y rendición de cuentas de nuestros sistemas de IA
Última Actualización
Este documento ha sido actualizado el 16 de octubre de 2025 para reflejar nuestro compromiso anticipado con el AI ACT antes de su entrada en vigor obligatoria el 2 de agosto de 2026. UTILIA se compromete a mantener este documento actualizado conforme evoluciónen nuestros sistemas de IA y la normativa aplicable.
2. Descripción de los Sistemas de IA
Sistema de Asistencia en Gestión de Personal
AlignIA utiliza inteligencia artificial para asistir a las organizaciones en la gestión y asignación de personal a eventos. El sistema está diseñado como una herramienta de apoyo que genera propuestas y recomendaciones, nunca decisiones finales automatizadas.
Propósito principal: Facilitar y optimizar el proceso de asignación de personal cualificado a eventos, considerando múltiples factores como habilidades, disponibilidad, experiencia y requisitos específicos del evento.
Funcionalidades Asistidas por IA
1. Análisis de Requisitos de Eventos
El sistema analiza las necesidades específicas de cada evento, incluyendo habilidades técnicas requeridas, número de personas necesarias, horarios, ubicación y requisitos especiales.
2. Matching de Habilidades y Disponibilidad
La IA cruza los requisitos del evento con las habilidades profesionales, nivel de experiencia y disponibilidad horaria del personal registrado en la plataforma.
3. Generación de Propuestas de Asignación
El sistema genera propuestas de asignación optimizadas, sugiriendo el personal más adecuado para cada evento basándose en criterios objetivos y datos históricos de asignaciones previas.
4. Sugerencias de Reasignación
Cuando se producen cambios en la disponibilidad del personal o en los requisitos de eventos, el sistema puede sugerir reasignaciones alternativas para mantener la cobertura óptima.
5. Explicación de Recomendaciones
Cada propuesta generada incluye una justificación detallada que explica por qué el sistema considera que determinado personal es adecuado para cada evento, facilitando la revisión humana.
Garantías Fundamentales
- Supervisión humana obligatoria: Todas las propuestas requieren revisión y aprobación explícita de un administrador humano
- AIAct.aiSystems.guarantees.noAutomatedDecisions.title AIAct.aiSystems.guarantees.noAutomatedDecisions.description
- Control total del usuario: Los administradores pueden modificar, rechazar o ignorar completamente las recomendaciones del sistema
- Transparencia en el proceso: Se proporciona explicación clara de los criterios y factores considerados en cada recomendación
Lo que NO hace nuestro Sistema de IA
- No toma decisiones finales sobre contratación o despido de personal
- No evalúa el rendimiento o desempeño laboral de las personas
- No crea perfiles psicológicos ni analiza características personales
- No accede a datos sensibles como salud, orientación sexual, creencias religiosas o políticas
- No realiza seguimiento biométrico ni reconocimiento facial
- No procesa información de menores de edad
Tecnología y Límites
Nuestro sistema de IA utiliza modelos de lenguaje avanzados para procesar información y generar recomendaciones. Es importante tener en cuenta que, como cualquier sistema de IA, tiene limitaciones: puede no considerar todos los factores contextuales relevantes, puede verse afectado por sesgos en los datos históricos, y sus sugerencias deben siempre ser evaluadas críticamente por profesionales humanos con conocimiento del contexto específico.
3. Clasificación de Riesgo según el AI ACT
Enfoque Basado en Riesgos del AI ACT
El AI ACT establece cuatro niveles de riesgo para los sistemas de inteligencia artificial, cada uno con obligaciones proporcionales:
Riesgo Inaceptable
Sistemas prohibidos que amenazan la seguridad, medios de vida o derechos fundamentales (ej: social scoring, manipulación subliminal)
Riesgo Alto
Sistemas en áreas críticas como salud, justicia, infraestructuras críticas, empleo con decisiones completamente automatizadas
Riesgo Limitado
Sistemas que requieren obligaciones de transparencia específicas (ej: chatbots, sistemas de recomendación con supervisión humana)
Riesgo Mínimo
Sistemas de bajo riesgo con uso libre (ej: filtros de spam, videojuegos con IA)
Clasificación de AlignIA: RIESGO LIMITADO
Los sistemas de IA de AlignIA están clasificados como RIESGO LIMITADO según el marco del AI ACT, y NO constituyen sistemas de alto riesgo.
Esta clasificación se basa en que AlignIA cumple con las siguientes características:
Por qué NO somos un Sistema de Alto Riesgo
Para ser clasificado como alto riesgo en el contexto de empleo y gestión de trabajadores, un sistema de IA debe cumplir los criterios del Anexo III del AI ACT, específicamente la sección sobre "Empleo, gestión de trabajadores y acceso al autoempleo".
AlignIA NO cumple estos criterios porque:
- AIAct.riskClassification.whyNotHighRisk.items.noAutomatedDecisions.title AIAct.riskClassification.whyNotHighRisk.items.noAutomatedDecisions.description
- No se utiliza para contratación o despido: AlignIA sólo asiste en la asignación de personal ya contratado a eventos específicos, no influye en decisiones de empleo permanentes.
- No evalúa rendimiento o desempeño: El sistema no realiza evaluaciones de desempeño laboral, ni influye en promociones, salarios o términos contractuales.
- Supervisión humana significativa: Los administradores tienen control total y pueden modificar o rechazar cualquier recomendación sin restricciones.
- No monitorea comportamiento de trabajadores: No realizamos seguimiento continuo ni monitoreo de la actividad o comportamiento del personal.
Análisis Detallado: Exclusión del Anexo III.4
El Anexo III.4 del AI ACT define como sistemas de alto riesgo aquellos utilizados para "empleo, gestión de trabajadores y acceso al autoempleo", específicamente cuando se emplean para:
(a) Contratación, Despido y Promoción
Requisito del AI ACT: Sistemas para reclutar o selecciónar personas naturales, incluida la publicación de anuncios, filtrado de candidatos y evaluación de solicitantes.
AlignIA NO cumple este criterio porque:
- - No se utiliza en procesos de contratación ni selección de personal
- - No evalúa candidatos externos ni influye en decisiones de empleo
- - Sólo asigna personal ya contratado a eventos específicos temporales
- - No tiene impacto en relaciones laborales permanentes ni términos contractuales
(b) Asignación de Tareas Basadas en Comportamiento Personal
Requisito del AI ACT: Sistemas para asignar tareas basándose en rasgos de personalidad, características individuales o comportamiento de personas en relaciones laborales.
AlignIA NO cumple este criterio porque:
- - No analiza rasgos de personalidad ni características psicológicas
- - No procesa datos de comportamiento personal ni patrones de conducta
- - Los criterios de matching son exclusivamente técnicos y objetivos:
- - Disponibilidad horaria declarada
- - Habilidades y certificaciones técnicas verificables
- - Experiencia registrada en roles similares
- - Requisitos específicos del evento
- - Los indicadores operativos registrados (confirmación de ofertas, tiempo de respuesta) NO se utilizan en el algoritmo de matching de IA
(c) Monitoreo y Evaluación del Desempeño
Requisito del AI ACT: Sistemas para monitorear y evaluar el desempeño y comportamiento de personas en relaciones laborales.
AlignIA NO cumple este criterio porque:
- - No realiza evaluaciones de desempeño laboral
- - No monitorea el comportamiento de trabajadores durante eventos
- - No mide ni registra calidad del trabajo o productividad
- - No genera puntuaciones, ratings ni sistemas de clasificación de personal
- - Las métricas existentes son puramente administrativas y no evaluativas
Obligaciones Aplicables a Sistemas de Riesgo Limitado
Como sistema de riesgo limitado, AlignIA cumple con las siguientes obligaciones de transparencia establecidas en el Artículo 50 del AI ACT:
- Información clara a los usuarios: Divulgamos de manera clara y transparente que están interactuando con un sistema de IA
- Explicación del funcionamiento: Proporcionamos información comprensible sobre cómo funciona el sistema y qué factores considera
- Identificación de capacidades y limitaciones: Comunicamos claramente qué puede y qué no puede hacer el sistema
- Accesibilidad de la información: Esta información está disponible de forma clara, visible y fácilmente accesible para todos los usuarios
Gobernanza y Revisión Continua de la Clasificación
UTILIA ha establecido un proceso de gobernanza robusto para garantizar que la clasificación de riesgo de AlignIA permanezca precisa y actualizada:
- Revisión trimestral: Evaluación periódica de la clasificación de riesgo cada 3 meses, documentando cualquier cambio en funcionalidades, datos procesados o mecanismos de decisión
- Evaluación de impacto antes de nuevas funcionalidades: Todo desarrollo significativo será precedido por una evaluación de impacto en la clasificación de riesgo AI ACT
- Monitoreo de jurisprudencia y guías oficiales: Seguimiento continuo de las interpretaciones de autoridades competentes sobre el Anexo III.4
- Compromiso de reclasificación inmediata: Si cualquier cambio en el sistema cumpliera con los criterios de alto riesgo del Anexo III.4, UTILIA implementará de inmediato todas las obligaciones adicionales del AI ACT (evaluación de conformidad, documentación técnica, sistema de gestión de riesgos, registro en base de datos de la UE)
- Transparencia con usuarios: Cualquier cambio en la clasificación será comunicado claramente a todos los usuarios con un plazo mínimo de 30 días antes de su implementación
Esta revisión continua garantiza que AlignIA no sólo cumple con el AI ACT hoy, sino que está preparado para adaptarse a futuras evoluciones normativas y cambios en el sistema.
4. Obligaciones de Transparencia
Conforme al Artículo 50 del AI ACT, los proveedores de sistemas de IA de riesgo limitado deben garantizar que los usuarios sean informados de manera clara y transparente de que están interactuando con un sistema de inteligencia artificial.
Divulgación del Uso de IA
AlignIA implementa las siguientes medidas para garantizar transparencia absoluta sobre el uso de inteligencia artificial:
- Indicadores visuales: Cuando el usuario interactúa con funcionalidades asistidas por IA, se muestra claramente un indicador que identifica que está utilizando un sistema de inteligencia artificial
- Documentación accesible: Este documento y otras secciones de ayuda explican claramente qué funcionalidades utilizan IA y cómo funcionan
- Onboarding informativo: Durante el proceso de incorporación inicial, los administradores reciben información sobre las capacidades de IA del sistema
- Etiquetado de recomendaciones: Todas las propuestas generadas por IA están claramente etiquetadas como tales, diferenciándolas de asignaciones manuales
Información sobre Capacidades y Limitaciones
Proporcionamos información clara y comprensible sobre:
Lo que SÍ puede hacer la IA
- - Analizar requisitos de eventos
- - Hacer matching de habilidades
- - Generar propuestas optimizadas
- - Sugerir reasignaciones
- - Explicar recomendaciones
- - Considerar histórico de asignaciones
Limitaciones del Sistema
- - No considera todo el contexto organizacional
- - Puede tener sesgos de datos históricos
- - No comprende relaciones interpersonales
- - AIAct.transparency.capabilities.limitations.items.supervision
- - No garantiza resultados perfectos
- - Depende de la calidad de datos ingresados
Explicabilidad de las Recomendaciones
Cada recomendación generada por el sistema de IA incluye:
- -Justificación detallada: Explicación de por qué se recomienda cada persona específica para el evento
- -Factores considerados: Lista de criterios evaluados (habilidades, experiencia, disponibilidad, historial)
- -Puntuación de adecuación: Indicador del grado de coincidencia entre requisitos del evento y perfil del personal
- -Alternativas: Cuando es posible, se muestran opciones alternativas con sus respectivas justificaciones
Factores de Matching Utilizados por el Sistema de IA
Para garantizar máxima transparencia, estos son los factores exactos que el algoritmo de IA utiliza para generar recomendaciones de asignación de personal:
Criterios Utilizados en el Matching de IA
- Disponibilidad horaria: Coincidencia entre la disponibilidad declarada del personal y las fechas/horarios del evento
- Habilidades técnicas: Correspondencia entre las habilidades requeridas por el evento y las habilidades registradas del personal
- Nivel de experiencia: Comparación entre el nivel de experiencia requerido y el nivel de experiencia del personal en las habilidades relevantes
- Certificaciones: Verificación de certificaciones técnicas cuando el evento las requiere específicamente
- Proximidad geográfica: Distancia entre la ubicación del personal y la ubicación del evento (cuando aplique)
- Historial de asignaciones: Experiencia previa en eventos similares como referencia informativa (no evaluativa)
Factores NO Utilizados en el Matching de IA
El algoritmo de matching NO considera ni utiliza los siguientes factores:
- - Métricas de rendimiento o evaluaciones de desempeño
- - Tasa de confirmación de ofertas
- - Tiempo de respuesta a solicitudes
- - Rasgos de personalidad o características psicológicas
- - Patrones de comportamiento personal
- - Datos de categorías especiales (salud, religión, orientación sexual, etc.)
- - Puntuaciones o ratings de calidad del trabajo
Los indicadores operativos mencionados (confirmación, tiempo de respuesta) se registran únicamente para propósitos administrativos y de gestión operativa, pero están explícitamente excluidos del algoritmo de matching de IA.
AIAct.transparency.proactiveCommunication.title
AIAct.transparency.proactiveCommunication.intro
- -AIAct.transparency.proactiveCommunication.items.newFeatures
- -AIAct.transparency.proactiveCommunication.items.changes
- -AIAct.transparency.proactiveCommunication.items.updates
- -AIAct.transparency.proactiveCommunication.items.queries
- -AIAct.transparency.proactiveCommunication.items.reports
Accesibilidad de la Información
Toda la información sobre el uso de IA está disponible en múltiples formatos y canales: documentación en línea, interfaz de usuario, centro de ayuda, y atención directa. Nos comprometemos a que esta información sea clara, comprensible y accesible para todos los usuarios, independientemente de su nivel de conocimientos técnicos.
5. Derechos de los Usuarios
En cumplimiento del AI ACT y coordinación con el RGPD, todos los usuarios de AlignIA tienen derechos específicos relacionados con el uso de sistemas de inteligencia artificial.
Derecho a ser Informado
Tiene derecho a saber:
- Cuándo está interactuando con un sistema de IA
- Qué funcionalidades específicas utilizan inteligencia artificial
- Qué datos se procesan por los sistemas de IA
- El propósito y la finalidad del procesamiento automatizado
- Las capacidades y limitaciones del sistema
Derecho a Revisión Humana
Todas las recomendaciones de IA están sujetas a revisión humana obligatoria.
Esto significa que:
- Ninguna asignación de personal se realiza automáticamente sin aprobación de un administrador humano
- Los administradores pueden modificar cualquier recomendación antes de aplicarla
- Los administradores pueden rechazar completamente las sugerencias del sistema
- El personal afectado puede solicitar revisión humana adicional de cualquier asignación
Derecho a Explicación
Tiene derecho a comprender cómo funciona el sistema de IA y por qué genera determinadas recomendaciones.
Puede solicitar explicaciones sobre:
- -La lógica aplicada en una recomendación específica
- -Los factores que el sistema consideró para generar una propuesta
- -El peso relativo de cada criterio en la recomendación
- -Por qué se sugirió una persona en particular para un evento
- -Alternativas consideradas por el sistema
Derecho a Impugnación
Si considera que una recomendación o asignación generada con ayuda de IA es incorrecta, inadecuada o presenta algún problema, tiene derecho a:
- Impugnar la recomendación: Expresar su desacuerdo con las sugerencias del sistema
- Solicitar revisión manual: Pedir que un humano revise la situación sin basarse en las recomendaciones de IA
- Proporcionar contexto adicional: Aportar información que el sistema no haya considerado
- Solicitar corrección: Pedir que se modifique una asignación basada en recomendaciones de IA
AIAct.userRights.rightToNoAutomatedDecisions.title
AIAct.userRights.rightToNoAutomatedDecisions.intro AIAct.userRights.rightToNoAutomatedDecisions.article22AIAct.userRights.rightToNoAutomatedDecisions.introEnd
AIAct.userRights.rightToNoAutomatedDecisions.allDecisions AIAct.userRights.rightToNoAutomatedDecisions.allDecisionsEnd
Derecho de Acceso, Rectificación y Supresión de Datos
En relación con los datos procesados por sistemas de IA, mantiene todos los derechos ARCO establecidos en el RGPD:
- -Acceso: Consultar qué datos suyos procesa el sistema de IA
- -Rectificación: Corregir datos inexactos o incompletos
- -Supresión: Solicitar la eliminación de sus datos personales
- -Portabilidad: Recibir sus datos en formato estructurado
Cómo Ejercer sus Derechos
Para ejercer cualquiera de estos derechos relacionados con el uso de IA:
Procedimiento:
- Contacto inicial: Envíe su solicitud a compliance@utilia.ai
- Identificación: Incluya información que nos permita verificar su identidad y localizar sus datos
- Especificación: Indique claramente qué derecho desea ejercer y sobre qué aspecto específico
- Respuesta: Recibirá respuesta en un plazo máximo de 30 días naturales desde la recepción de su solicitud
Si no está satisfecho con nuestra respuesta, puede presentar una reclamación ante la Agencia Española de Protección de Datos (AEPD) en www.aepd.es
Garantía de No Discriminación
AIAct.userRights.nonDiscrimination.description
6. Procesamiento de Datos por Sistemas de IA
El sistema de inteligencia artificial de AlignIA procesa únicamente los datos estrictamente necesarios para generar recomendaciones de asignación de personal a eventos, cumpliendo con los principios de minimización y finalidad limitada establecidos en el RGPD.
Datos de Eventos Procesados
Para generar recomendaciones, el sistema de IA analiza la siguiente información de eventos:
- -Nombre y descripción del evento
- -Fecha, hora y duración
- -Ubicación (ciudad, dirección, tipo de instalación)
- -Habilidades técnicas requeridas
- -Número de personas necesarias
- -Nivel de experiencia requerido
- -Requisitos especiales del evento
Datos de Personal Procesados
Para realizar el matching entre eventos y personal, el sistema de IA procesa:
- -Nombre del personal
- -Habilidades profesionales declaradas
- -Nivel de experiencia en cada habilidad
- -Especialidades o certificaciones relevantes
- -Disponibilidad horaria
- -Ubicación geográfica o preferencia de zona de trabajo
- -Historial de asignaciones previas (únicamente como referencia)
Finalidad del Procesamiento
Los datos se procesan exclusivamente para las siguientes finalidades específicas:
1. Generación de Propuestas de Asignación
Analizar la correspondencia entre requisitos de eventos y perfiles de personal para sugerir las asignaciones más adecuadas.
2. Optimización de Recursos
Maximizar la utilización eficiente del personal disponible considerando múltiples eventos y restricciones simultáneas.
3. Mejora Continua del Sistema
Análisis agregado y anonimizado del rendimiento del sistema para mejorar la calidad de las recomendaciones.
4. Auditoría y Trazabilidad
Registro de las recomendaciones generadas para permitir auditorías, revisión y mejora del sistema.
Principio de Minimización de Datos
Aplicamos estrictamente el principio de minimización de datos:
- Sólo datos necesarios: El sistema procesa únicamente la información estrictamente necesaria para su función específica
- No procesamos datos sensibles: No accedemos a categorías especiales de datos (salud, orientación sexual, religión, etc.)
- Limitación de almacenamiento: Los datos procesados por IA se conservan sólo durante el tiempo necesario
- Aislamiento por organización: Multi-tenancy estricto garantiza que cada organización sólo accede a sus propios datos
Exactitud y Actualización de Datos
Para garantizar recomendaciones precisas y justas:
- -Los usuarios pueden actualizar su información de habilidades y disponibilidad en cualquier momento
- -El sistema utiliza siempre la información más reciente disponible
- -Los administradores son responsables de mantener actualizada la información de eventos y personal
- -Se proporciona funcionalidad para corregir errores en los datos de manera inmediata
Almacenamiento y Retención
Los datos procesados por sistemas de IA se gestiónan de la siguiente manera:
- -Base de datos segura: Todos los datos se almacenan en bases de datos cifradas
- -Logs de auditoría: Las recomendaciones generadas se registran en logs conservados por 90 días para auditoría
- -Copias de seguridad: Se realizan copias de seguridad automáticas con cifrado
- -Eliminación segura: Cuando se eliminan datos, se borran de manera segura y permanente
Transferencias de Datos a Proveedores de IA (OpenAI)
AlignIA utiliza los servicios de inteligencia artificial de OpenAI para generar recomendaciones de asignación. Esta relación implica transferencias internacionales de datos que están debidamente reguladas:
Detalles de la Transferencia a OpenAI
- -Proveedor: OpenAI, LLC
- -Ubicación: Estados Unidos
- -Finalidad: Procesamiento mediante modelos de lenguaje para generar propuestas de asignación de personal
- -Base legal: Cláusulas Contractuales Tipo (Standard Contractual Clauses - SCC) aprobadas por la Comisión Europea
- -Retención por OpenAI: Según la política de OpenAI, los datos enviados a través de la API no se utilizan para entrenamiento de modelos y se eliminan después de 30 días, salvo obligaciones legales de retención
- -Políticas de OpenAI: Business Terms - Privacy Policy - Data Processing Addendum
Garantías de Protección
UTILIA ha verificado que OpenAI cumple con las garantías adecuadas para transferencias internacionales según el Capítulo V del RGPD. Además, OpenAI está comprometido con el cumplimiento del AI ACT europeo y ha implementado medidas técnicas y organizativas apropiadas para proteger los datos procesados.
Transparencia en el Procesamiento
Para más información detallada sobre el procesamiento de datos personales, incluyendo bases legales, transferencias internacionales y derechos de los interesados, consulte nuestra Política de Privacidad y nuestro documento de Cumplimiento GDPR.
7. Coordinación con el GDPR
El AI ACT y el RGPD (GDPR) son normas complementarias que se aplican conjuntamente cuando los sistemas de inteligencia artificial procesan datos personales. AlignIA cumple con ambos marcos normativos de manera coordinada y coherente.
Relación Complementaria entre AI ACT y GDPR
El AI ACT y el GDPR abordan aspectos diferentes pero relacionados:
AI ACT
- - Seguridad de sistemas de IA
- - Clasificación de riesgos
- - Transparencia del uso de IA
- - Supervisión humana
- - Gobernanza de IA
- - Exactitud y robustez técnica
GDPR
- - Protección de datos personales
- - Bases legales del tratamiento
- - Derechos de los interesados
- - Principios de protección de datos
- - Transferencias internacionales
- - Seguridad de datos personales
Cuando un sistema de IA procesa datos personales (como es el caso de AlignIA), deben cumplirse simultáneamentelas obligaciones de ambos marcos normativos.
Evaluación de Impacto Coordinada
UTILIA realiza evaluaciones de impacto que consideran ambos marcos normativos:
- Evaluación de Impacto en Protección de Datos (DPIA): Análisis del impacto del procesamiento de datos personales conforme al Artículo 35 del RGPD
- Evaluación de Riesgos de IA: Análisis de los riesgos específicos derivados del uso de sistemas de inteligencia artificial
- Evaluación Conjunta: Consideración integrada de los riesgos para datos personales y de los riesgos derivados del uso de IA
Protección de Datos Personales en Sistemas de IA
La protección de datos personales procesados por sistemas de IA en AlignIA se garantiza mediante:
1. Bases Legales Apropiadas
Todo procesamiento de datos por sistemas de IA se basa en las bases legales establecidas en el Artículo 6 del RGPD: ejecución de contrato y consentimiento del interesado cuando corresponda.
2. Minimización de Datos
Los sistemas de IA procesan únicamente los datos personales estrictamente necesarios para su finalidad específica, cumpliendo el principio de minimización del RGPD.
3. Transparencia y Explicabilidad
Se proporciona información clara sobre el procesamiento de datos por IA, cumpliendo con las obligaciones de transparencia del RGPD (Artículos 13 y 14).
4. Derechos de los Interesados
Se garantiza el pleno ejercicio de todos los derechos ARCO (acceso, rectificación, supresión, oposición) en relación con los datos procesados por IA.
5. Seguridad y Confidencialidad
Medidas técnicas y organizativas apropiadas garantizan la seguridad de los datos personales procesados por sistemas de IA, cumpliendo el Artículo 32 del RGPD.
Artículo 22 RGPD y Decisiones Automatizadas
El Artículo 22 del RGPD establece el derecho a no ser objeto de decisiones basadas únicamente en tratamiento automatizado que produzcan efectos jurídicos o afecten significativamente.
AlignIA cumple plenamente con este artículo porque:
- Ninguna decisión se toma basándose únicamente en procesamiento automatizado
- Todas las recomendaciones de IA requieren revisión y aprobación humana explícita
- Los usuarios tienen derecho a obtener intervención humana, expresar su punto de vista y impugnar decisiones
- Se proporcionan garantías adecuadas de los derechos y libertades del interesado
Gestión de Protección de Datos
De acuerdo con el artículo 37 del RGPD, UTILIA evalúa periódicamente la necesidad de designar un Delegado de Protección de Datos (DPO). Actualmente, las funciones de protección de datos son gestionadas directamente por el equipo de cumplimiento legal de UTILIA, que supervisa:
- -AIAct.gdprCoordination.dpoManagement.items.supervision
- -Asesoramiento sobre evaluaciones de impacto de protección de datos
- -Punto de contacto con la autoridad de control (AEPD)
- -Atención de consultas y reclamaciones de interesados
Contacto para protección de datos: compliance@utilia.ai
Documentos Relacionados
Para información completa sobre protección de datos personales, consulte:
- - Política de Privacidad: Información detallada sobre procesamiento de datos personales
- - Cumplimiento GDPR: Documentación completa sobre cumplimiento del RGPD
- - Términos de Servicio: Condiciones contractuales del servicio
Compromiso de Cumplimiento Integrado
UTILIA se compromete a mantener un enfoque integrado de cumplimiento normativo que considera simultáneamente las obligaciones del AI ACT y del RGPD, garantizando la máxima protección de los derechos fundamentales de los usuarios en el contexto del uso de inteligencia artificial.
8. Supervisión Humana
El AI ACT establece requisitos estrictos de supervisión humana para sistemas de IA, especialmente aquellos clasificados como de alto riesgo. Aunque AlignIA es un sistema de riesgo limitado, implementamos medidas de supervisión humana rigurosas que van más allá de las obligaciones mínimas.
Principio Fundamental
NINGUNA decisión final se toma sin intervención humana. Todos los sistemas de IA en AlignIA funcionan bajo supervisión humana constante, y todas las propuestas generadas requieren aprobación explícita de un administrador humano antes de aplicarse.
Modelo de Supervisión Human-in-the-Loop
AlignIA implementa un modelo "Human-in-the-Loop" donde los humanos están siempre presentes en el proceso de toma de decisiones:
Flujo de Trabajo:
- Entrada de requisitos: El administrador humano define los requisitos del evento
- Procesamiento por IA: El sistema analiza y genera propuestas de asignación
- Presentación de propuestas: Las recomendaciones se presentan al administrador con explicaciones detalladas
- Revisión humana obligatoria: El administrador evalúa las propuestas, considerando contexto y factores no cuantificables
- AIAct.humanOversight.hitl.workflow.steps.decision.title AIAct.humanOversight.hitl.workflow.steps.decision.description
- Aplicación manual: Sólo después de aprobación humana explícita se ejecuta la asignación
Capacidades de los Supervisores Humanos
Los administradores que supervisan las recomendaciones de IA tienen plenas capacidades para:
- Comprender las recomendaciones: Acceder a explicaciones detalladas de por qué el sistema sugiere cada asignación
- Modificar propuestas: Cambiar cualquier aspecto de las recomendaciones generadas por IA
- Rechazar sugerencias: Descartar completamente las propuestas del sistema sin consecuencias
- Realizar asignaciones manuales: Crear asignaciones completamente manuales sin usar IA
- Intervenir en cualquier momento: Modificar o revertir asignaciones incluso después de su aplicación
- Desactivar el sistema de IA: Optar por no utilizar las funcionalidades de IA si lo consideran apropiado
Responsabilidad de los Supervisores Humanos
Los administradores humanos mantienen la responsabilidad final sobre todas las decisiones:
- -Responsabilidad por decisiones finales: La responsabilidad de las asignaciones recae en los administradores, no en el sistema de IA
- -Evaluación contextual: Los supervisores deben considerar factores contextuales que el sistema no puede conocer
- -Verificación de adecuación: Confirmar que las recomendaciones son apropiadas para el contexto específico
- -Detección de errores: Identificar posibles errores o sesgos en las recomendaciones de IA
Capacitación de Supervisores
Para garantizar una supervisión efectiva, UTILIA proporciona:
- Documentación completa: Guías detalladas sobre cómo funcionan los sistemas de IA y cómo interpretar sus recomendaciones
- Onboarding específico: Formación inicial sobre el uso responsable de las funcionalidades de IA
- Información sobre limitaciones: Clarificación de qué puede y qué no puede hacer el sistema
- Mejores prácticas: Orientación sobre cómo combinar efectivamente el juicio humano con las recomendaciones de IA
- Soporte continuo: Acceso a ayuda y asesoramiento sobre el uso del sistema
Herramientas de Supervisión
El sistema proporciona herramientas específicas para facilitar la supervisión humana efectiva:
- -Explicaciones detalladas: Justificación clara de cada recomendación
- -Indicadores de confianza: Puntuaciones que muestran el nivel de adecuación de cada sugerencia
- -Alternativas visibles: Presentación de opciones alternativas cuando están disponibles
- -Historial de decisiones: Registro de qué propuestas fueron aceptadas, modificadas o rechazadas
- -Interfaz intuitiva: Diseño que facilita la revisión rápida pero efectiva de recomendaciones
Prevención de Dependencia Excesiva
Para evitar que los supervisores humanos dependan excesivamente de las recomendaciones de IA (automation bias), implementamos:
- Énfasis en limitaciones: Recordatorios constantes de que el sistema tiene limitaciones y no es infalible
- Fomento del pensamiento crítico: La interfaz incentiva la revisión activa, no la aprobación automática
- Sin aprobación en masa: Cada recomendación debe revisarse individualmente
- Visibilidad de incertidumbre: El sistema comunica claramente cuando tiene baja confianza en una recomendación
Supervisión Humana como Pilar Fundamental
La supervisión humana no es sólo una obligación regulatoria para AlignIA, sino un pilar fundamental de nuestro diseño. Creemos que los mejores resultados se obtienen cuando la inteligencia artificial complementa (no reemplaza) el juicio humano, combinando la capacidad de procesamiento de la IA con la comprensión contextual, la intuición y los valores éticos humanos.
9. Responsabilidad y Gobernanza
En cumplimiento del AI ACT y el principio de accountability del RGPD, UTILIA ha establecido una estructura de gobernanza clara para garantizar el uso responsable de la inteligencia artificial en AlignIA.
Estructura de Gobernanza de IA
UTILIA ha establecido roles y responsabilidades claras para la gobernanza de sistemas de IA:
Responsable de Cumplimiento de IA
- - AIAct.accountability.governance.roles.compliance.items.supervision
- - Coordinación con el DPO para aspectos de protección de datos
- - Evaluación continua de riesgos de sistemas de IA
- - Gestión de actualizaciones y cambios significativos
- - Punto de contacto para consultas sobre IA
Equipo de Desarrollo y Mantenimiento
- - Implementación técnica de sistemas de IA
- - Monitoreo del rendimiento y precisión
- - Detección y corrección de sesgos
- - Mejora continua de algoritmos
- - Documentación técnica completa
Delegado de Protección de Datos (DPO)
- - AIAct.accountability.governance.roles.dpo.items.supervision
- - Evaluaciones de impacto de protección de datos
- - Asesoramiento sobre cumplimiento del RGPD
- - Atención de derechos de interesados
- - Coordinación con autoridades de control
Dirección Ejecutiva
- - Responsabilidad final por gobernanza de IA
- - Aprobación de políticas y procedimientos
- - Asignación de recursos para cumplimiento
- - AIAct.accountability.governance.roles.executive.items.decisions
- - Supervisión de gestión de riesgos
Evaluación Continua de Riesgos
UTILIA realiza evaluaciones periódicas de los riesgos asociados a los sistemas de IA:
- Evaluación inicial: Análisis exhaustivo de riesgos antes de implementar nuevas funcionalidades de IA
- Revisiones trimestrales: Evaluación regular del funcionamiento y riesgos de los sistemas en producción
- Evaluaciones ad-hoc: Análisis inmediato cuando se detectan incidentes o problemas
- Actualización de clasificación: Revisión de la clasificación de riesgo cuando cambian las funcionalidades
Documentación y Trazabilidad
Mantenemos documentación completa y trazable de todos los aspectos de nuestros sistemas de IA:
Documentación Técnica
- - Arquitectura del sistema
- - Algoritmos utilizados
- - Datos de entrenamiento
- - Métricas de rendimiento
- - Limitaciones conocidas
Documentación de Gobernanza
- - Políticas de uso de IA
- - Evaluaciones de riesgo
- - Procedimientos de supervisión
- - Planes de contingencia
- - Registros de incidentes
Documentación Operativa
- - Logs de recomendaciones
- - AIAct.accountability.documentation.types.operational.items.decisions
- - Auditorías realizadas
- - Cambios implementados
- - Resultados de evaluaciones
Documentación de Cumplimiento
- - Análisis de cumplimiento AI ACT
- - Evaluaciones DPIA
- - Informes de transparencia
- - AIAct.accountability.documentation.types.compliance.items.communications
- - Respuestas a consultas
Gestión de Incidentes y Problemas
Tenemos establecidos procedimientos claros para gestionar incidentes relacionados con sistemas de IA:
Protocolo de Respuesta:
- Detección: Identificación del incidente a través de monitoreo automático o reporte de usuarios
- Clasificación: Evaluación de la severidad y potencial impacto del incidente
- Contención: Medidas inmediatas para limitar el impacto (desactivación temporal si es necesario)
- Investigación: Análisis de las causas raíz del problema
- Corrección: Implementación de soluciones permanentes
- Documentación: Registro completo del incidente, análisis y acciones tomadas
- AIAct.accountability.incidents.protocol.steps.communication.title AIAct.accountability.incidents.protocol.steps.communication.description
- Prevención: Medidas para evitar recurrencia
Mejora Continua
Implementamos un ciclo de mejora continua para nuestros sistemas de IA:
- -Monitoreo de métricas: Seguimiento continuo de indicadores clave de rendimiento
- -Análisis de feedback: Revisión sistemática de comentarios de usuarios y supervisores
- -Detección de sesgos: Evaluación regular para identificar y corregir posibles sesgos
- -Optimización de algoritmos: Mejoras basadas en datos de uso real y evaluaciones
- -Actualización de documentación: Mantenimiento actualizado de toda la documentación relevante
Auditorías y Revisiones
Realizamos auditorías regulares de nuestros sistemas de IA:
- Auditorías internas semestrales: Revisión completa del cumplimiento y funcionamiento
- Revisiones técnicas trimestrales: Evaluación de métricas de rendimiento y precisión
- Auditorías de seguridad anuales: Evaluación de medidas de seguridad por terceros
- Revisiones de cumplimiento normativo: Verificación de adherencia al AI ACT y RGPD
Responsabilidad ante los Usuarios
UTILIA asume plena responsabilidad por el funcionamiento de sus sistemas de IA:
- -No trasladamos la responsabilidad a los usuarios finales
- -Atendemos todas las consultas y reclamaciones sobre el funcionamiento de la IA
- -Mantenemos canales de comunicación abiertos y accesibles
- -Actuamos proactivamente cuando detectamos problemas
- -Proporcionamos compensación apropiada en caso de fallos del sistema
Compromiso con la Accountability
UTILIA se compromete a demostrar accountability (responsabilidad proactiva) en el uso de inteligencia artificial, manteniendo una gobernanza sólida, documentación completa, procesos de mejora continua y transparencia total con todos los interesados. La responsabilidad no es sólo un requisito legal, sino un valor fundamental de nuestra organización.
10. Medidas de Seguridad
La seguridad de los sistemas de inteligencia artificial es fundamental tanto para el AI ACT como para el RGPD. AlignIA implementa medidas técnicas y organizativas robustas para garantizar la seguridad, integridad y disponibilidad de los sistemas de IA y los datos que procesan.
Seguridad de la Infraestructura
Los sistemas de IA de AlignIA operan sobre una infraestructura segura:
- Infraestructura en la nube certificada: Servidores en proveedores cloud con certificaciones ISO 27001, SOC 2
- Aislamiento de entornos: Separación estricta entre entornos de producción, desarrollo y pruebas
- Arquitectura multi-tenancy segura: Cada organización tiene sus datos completamente aislados
- Redundancia y alta disponibilidad: Sistemas distribuidos para garantizar continuidad del servicio
- Monitoreo 24/7: Supervisión continua de la salud y seguridad de la infraestructura
Cifrado y Protección de Datos
Todos los datos procesados por sistemas de IA están protegidos mediante cifrado:
- Cifrado en transito: TLS 1.3 para todas las comunicaciones entre cliente y servidor
- Cifrado en reposo: AES-256 para datos almacenados en bases de datos y sistemas de archivos
- Gestión segura de claves: Uso de servicios de gestión de claves (KMS) con rotación periódica
- Cifrado de backups: Todas las copias de seguridad están cifradas
- Protección de secretos: Credenciales y configuraciones sensibles almacenadas en servicios especializados
Control de Acceso
Implementamos controles de acceso estrictos basados en el principio de mínimo privilegio:
- Autenticación robusta: Autenticación multifactor obligatoria para administradores
- Control de acceso basado en roles (RBAC): Permisos granulares según roles de usuario
- Acceso temporal limitado: Sesiones con timeout automático tras inactividad
- Registro de accesos: Logs completos de quién accede a qué y cuándo
- Revisión periódica de permisos: Auditoría regular de accesos y privilegios
Auditoría y Trazabilidad
Mantenemos registros completos de eventos para auditoría y trazabilidad:
- -Logs de recomendaciones de IA: Registro de todas las propuestas generadas con timestamp y contexto
- -AIAct.security.auditTraceability.items.decisionLogs.title AIAct.security.auditTraceability.items.decisionLogs.description
- -Logs de acceso: Registro de autenticaciones y accesos a funcionalidades sensibles
- -Logs de cambios: Rastro completo de modificaciones en datos y configuraciones
- -Retención de 90 días: Los logs de auditoría se conservan durante 90 días para investigaciones
- -Protección de logs: Los registros de auditoría son inmutables y están protegidos contra manipulación
Seguridad del Modelo de IA
Protegemos específicamente los modelos de IA contra amenazas:
- Protección contra manipulación: Validación de entradas para prevenir ataques adversarios
- Límites de tasa: Rate limiting para prevenir abuso del sistema
- Sanitización de datos: Limpieza y validación de todos los datos de entrada
- Monitoreo de anomalías: Detección automática de comportamientos inusuales
- Actualizaciones de seguridad: Parches y actualizaciones periódicas de componentes
Copias de Seguridad y Recuperación
Garantizamos la disponibilidad y recuperación de datos mediante:
- -Backups automáticos diarios: Copias de seguridad completas cada 24 horas
- -Backups incrementales: Copias incrementales cada 6 horas
- -Almacenamiento en múltiples ubicaciones: Backups replicados en diferentes zonas geográficas
- -Pruebas de recuperación: Verificación trimestral de procedimientos de restauración
- -RTO y RPO definidos: Recovery Time Objective de 4 horas, Recovery Point Objective de 6 horas
Seguridad Organizativa
Complementamos la seguridad técnica con medidas organizativas:
- Políticas de seguridad: Documentación completa de políticas y procedimientos de seguridad
- Capacitación del personal: Formación regular en seguridad y buenas prácticas
- Acuerdos de confidencialidad: Todo el personal firma NDAs y codigos de conducta
- Plan de respuesta a incidentes: Procedimientos documentados para gestión de brechas de seguridad
- Revisiones periódicas: Auditorías de seguridad anuales por terceros independientes
Gestión de Vulnerabilidades
Mantenemos un proceso continuo de identificación y corrección de vulnerabilidades:
- -Escaneo automático semanal de vulnerabilidades
- -Análisis de dependencias y bibliotecas de terceros
- -Aplicación prioritaria de parches críticos en menos de 48 horas
- -Programa de divulgación responsable de vulnerabilidades
- -Pruebas de penetración anuales
Certificaciones y Estándares
UTILIA trabaja activamente hacia la obtención de certificaciones reconocidas en seguridad de la información (ISO 27001) y está comprometida con el cumplimiento de estándares de la industria. Nuestras medidas de seguridad están diseñadas conforme a las mejores prácticas internacionales y se revisan regularmente para mantener el más alto nivel de protección.
11. Monitoreo y Actualizaciones
El monitoreo continuo y las actualizaciones regulares son esenciales para mantener sistemas de IA seguros, precisos y conformes con las regulaciones. UTILIA implementa procesos sistemáticos de supervisión y mejora continua de los sistemas de IA de AlignIA.
Monitoreo Continuo del Rendimiento
Monitoreamos constantemente múltiples aspectos del funcionamiento de los sistemas de IA:
Métricas de Precisión
- - Tasa de aceptación de recomendaciones por administradores
- - Modificaciones realizadas a las propuestas de IA
- - Coincidencia entre criterios y resultados esperados
- - Feedback de usuarios sobre la calidad de recomendaciones
Métricas de Rendimiento Técnico
- - Tiempo de respuesta del sistema
- - Disponibilidad y uptime
- - Tasa de errores y excepciones
- - Uso de recursos computacionales
Métricas de Equidad
- - Distribución de asignaciones entre personal
- - Detección de posibles sesgos sistemáticos
- - Análisis de patrones de recomendaciones
- - Evaluación de equidad en oportunidades
Métricas de Uso
- - Frecuencia de uso de funcionalidades de IA
- - Patrones de interacción de usuarios
- - Volumen de recomendaciones generadas
- - Tendencias de adopción
Detección y Corrección de Sesgos
Implementamos procesos específicos para identificar y corregir sesgos en las recomendaciones de IA:
- Análisis estadístico mensual: Evaluación de patrones de recomendaciones para detectar sesgos potenciales
- Revisión de datos históricos: Evaluación del impacto de sesgos en datos de entrenamiento
- Ajustes correctivos: Modificación de algoritmos cuando se detectan sesgos injustificados
- Pruebas de equidad: Testing específico para garantizar recomendaciones justas
- Transparencia sobre sesgos conocidos: Comunicación proactiva de limitaciones identificadas
Proceso de Actualización de Sistemas de IA
Las actualizaciones de sistemas de IA siguen un proceso riguroso:
Ciclo de Actualización:
- Identificación de mejoras: Análisis de métricas, feedback y nuevos requisitos
- Evaluación de impacto: Análisis de cómo los cambios afectarán rendimiento y cumplimiento normativo
- Desarrollo y testing: Implementación en entorno de pruebas con validación exhaustiva
- Evaluación de riesgos: Revisión de nuevos riesgos introducidos por los cambios
- Aprobación interna: Revisión por responsables de cumplimiento y técnicos
- AIAct.monitoring.updateProcess.cycle.steps.communication.title AIAct.monitoring.updateProcess.cycle.steps.communication.description
- Despliegue gradual: Rollout progresivo con monitoreo intensivo
- Evaluación post-despliegue: Análisis de impacto real y ajustes si es necesario
Tipos de Actualizaciones
Distinguimos entre diferentes tipos de actualizaciones según su impacto:
Actualizaciones Mayores
Cambios significativos en funcionalidad o comportamiento del sistema
- - Requieren notificación anticipada
- - Evaluación de impacto completa
- - Actualización de documentación
- - Formación a usuarios si es necesario
Actualizaciones Menores
Mejoras incrementales, ajustes de precisión
- - Despliegue más rápido
- - Evaluación de riesgo simplificada
- - Documentación en changelog
- - Notificación en notas de versión
Parches de Seguridad
Correcciones críticas de seguridad
- - Despliegue prioritario inmediato
- - Testing acelerado pero riguroso
- - AIAct.monitoring.updateTypes.security.items.communication
- - Revisión post-mortem obligatoria
Correcciones de Errores
Solución de bugs identificados
- - Priorización según severidad
- - Testing de regresión completo
- - Documentación de la corrección
- - AIAct.monitoring.updateTypes.bugfixes.items.communication
AIAct.monitoring.changeCommunication.title
AIAct.monitoring.changeCommunication.intro
- AIAct.monitoring.changeCommunication.items.inApp.title AIAct.monitoring.changeCommunication.items.inApp.description
- AIAct.monitoring.changeCommunication.items.emails.title AIAct.monitoring.changeCommunication.items.emails.description
- AIAct.monitoring.changeCommunication.items.releaseNotes.title AIAct.monitoring.changeCommunication.items.releaseNotes.description
- AIAct.monitoring.changeCommunication.items.docUpdates.title AIAct.monitoring.changeCommunication.items.docUpdates.description
- AIAct.monitoring.changeCommunication.items.support.title AIAct.monitoring.changeCommunication.items.support.description
Feedback de Usuarios
El feedback de usuarios es fundamental para la mejora continua:
- -Canales de reporte: Múltiples vías para reportar problemas o sugerir mejoras
- -Análisis sistemático: Revisión regular de feedback para identificar patrones
- -Priorización de mejoras: Roadmap influenciado por necesidades de usuarios
- -Comunicación de acciones: Información sobre cómo el feedback ha influido en mejoras
Mantenimiento del Cumplimiento Normativo
Monitoreamos constantemente la evolución del marco regulatorio:
- Seguimiento del AI ACT: Atención a guías, interpretaciones y actualizaciones del reglamento
- Coordinación con RGPD: Mantenimiento del cumplimiento coordinado de ambas normativas
- Adaptación proactiva: Implementación anticipada de requisitos futuros cuando sea posible
- Actualización de documentación: Este documento se actualiza cuando hay cambios relevantes
Compromiso con la Mejora Continua
UTILIA se compromete a mantener sus sistemas de IA en constante evolución y mejora, respondiendo tanto a los avances tecnológicos como a las necesidades de los usuarios y los cambios en el marco regulatorio. El monitoreo continuo y las actualizaciones regulares no son sólo obligaciones de cumplimiento, sino parte integral de nuestra filosofía de ofrecer el mejor servicio posible de manera responsable y ética.
12. Información de Contacto
Para consultas, ejercicio de derechos o información adicional sobre el cumplimiento del AI ACT en AlignIA, puede contactar con UTILIA a través de los siguientes canales:
Responsable del Tratamiento
Razón Social: UTILIA SERVICIOS IA S.COOP.CAN
NIF: F75452102
Domicilio Social:
Calle Teniente Coronel Castillo Olivares n26
Piso 16 A2
Las Palmas de Gran Canaria
Canarias, España
Responsable de Cumplimiento de IA
Para consultas específicas sobre el cumplimiento del AI ACT, uso de inteligencia artificial, clasificación de riesgos, transparencia y supervisión humana:
Email: compliance@utilia.ai
Asunto sugerido: "Consulta AI ACT - AlignIA"
El Responsable de Cumplimiento de IA es el punto de contacto principal para todas las cuestiones relacionadas con el funcionamiento de sistemas de inteligencia artificial, evaluaciones de riesgo, gobernanza de IA y cumplimiento del AI ACT.
Contacto General
Para consultas generales sobre AlignIA, soporte técnico o información comercial:
Email general: info@utilia.ai
Procedimiento para Consultas y Reclamaciones
Si desea realizar una consulta o presentar una reclamación relacionada con el uso de IA:
Pasos a seguir:
- Envie su consulta o reclamación: Utilice el email apropiado según la naturaleza de su consulta (AI ACT, protección de datos, o general)
- Incluya información relevante:
- - Sus datos de contacto (nombre, email, teléfono)
- - Descripción detallada de su consulta o reclamación
- - Referencia específica si corresponde (evento, recomendación, etc.)
- - Documentación de soporte si es relevante
- Acuse de recibo: Recibirá confirmación de recepción en un plazo máximo de 48 horas laborables
- Investigación: Analizaremos su consulta o reclamación de manera exhaustiva
- Respuesta: Recibirá respuesta completa en un plazo máximo de 30 días naturales desde la recepción
Derecho a Reclamación ante Autoridades
Si considera que sus derechos relacionados con el AI ACT o el RGPD no han sido atendidos adecuadamente, tiene derecho a presentar una reclamación ante las autoridades competentes:
Agencia Española de Protección de Datos (AEPD)
Dirección: Calle Jorge Juan, 6, 28001 Madrid, España
Web: www.aepd.es
Teléfono: 901 100 099 / 912 663 517
La AEPD es la autoridad de control competente en materia de protección de datos personales en España, incluyendo el procesamiento por sistemas de IA.
Autoridades Europeas del AI ACT
A partir de la entrada en vigor del AI ACT (2 agosto 2026), se establecerán autoridades competentes específicas para su supervisión. Actualizaremos esta información cuando las autoridades españolas sean designadas oficialmente.
Tiempo de Respuesta
Nos comprometemos a responder sus consultas en los siguientes plazos:
- -Acuse de recibo: 48 horas laborables
- -Consultas generales: 7 días laborables
- -Consultas sobre IA y AI ACT: 15 días naturales
- -Ejercicio de derechos ARCO: 30 días naturales (máximo legal)
- -Reclamaciones complejas: 30 días naturales, prorrogables otros 30 días si la complejidad lo requiere
Compromiso de Atención
UTILIA se compromete a atender todas las consultas, dudas y reclamaciones de manera profesional, transparente y dentro de los plazos establecidos. Su confianza es fundamental para nosotros, y estamos a su disposición para aclarar cualquier aspecto relacionado con el uso de inteligencia artificial en AlignIA y nuestro cumplimiento del AI ACT y el RGPD.
Documento Actualizado
Este documento de Cumplimiento del AI ACT fue actualizado por última vez el 16 de octubre de 2025 y está vigente hasta nueva actualización. Para consultar la versión más reciente de este documento, visite https://alignia.utilia.ai/ai-act
Nota Legal: Este documento está redactado en cumplimiento anticipado del Reglamento (UE) 2024/1689 sobre Inteligencia Artificial (AI ACT), que entrará en pleno vigor el 2 de agosto de 2026. UTILIA se compromete a mantener el cumplimiento de todas las obligaciones establecidas en el reglamento y a actualizar este documento conforme evolucionen nuestros sistemas de IA y la normativa aplicable. Para consultas sobre el uso de IA en AlignIA, contacte con compliance@utilia.ai.
Coordinación normativa: Este documento debe leerse conjuntamente con nuestra Política de Privacidad, Cumplimiento GDPR, Términos de Servicio para una comprensión completa de nuestras obligaciones legales y sus derechos.