AlignIA

AIAct.header.version - Última actualización: 16 de octubre de 2025

Este documento describe el cumplimiento de AlignIA con el Reglamento de Inteligencia Artificial (AI ACT - UE 2024/1689), que entrará en vigor el 2 de agosto de 2026.

1. Introducción al AI ACT

¿Qué es el AI ACT?

El Reglamento de Inteligencia Artificial (AI ACT) es el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, adoptado el 13 de junio de 2024, que establece normas armonizadas sobre inteligencia artificial en la Unión Europea.

Este reglamento establece un marco jurídico uniforme para el desarrollo, comercialización y uso de sistemas de inteligencia artificial, garantizando que estos sistemas sean seguros, transparentes y respetuosos con los derechos fundamentales. El AI ACT entrará en pleno vigor el 2 de agosto de 2026.

El AI ACT adopta un enfoque basado en riesgos, clasificando los sistemas de IA según el nivel de riesgo que representan para la seguridad y los derechos fundamentales de las personas, estableciendo obligaciones proporcionales para cada categoría.

Calendario de Implementación Escalonada del AI ACT

El AI ACT se aplica de forma gradual según diferentes hitos temporales:

1 de febrero de 2025: Prohibición de sistemas de riesgo inaceptable

Entrada en vigor de las prohibiciones de sistemas de IA que presentan riesgos inaceptables (social scoring, manipulación subliminal, etc.)

2 de agosto de 2025: Códigos de conducta y modelos de IA de propósito general

Obligaciones para proveedores de modelos de IA de propósito general (GPAI) y códigos de conducta para sistemas de riesgo limitado

2 de agosto de 2026: Aplicación completa del AI ACT

Fecha de plena aplicación de todas las obligaciones del AI ACT, incluyendo sistemas de alto riesgo y obligaciones de transparencia para sistemas de riesgo limitado. Esta es la fecha clave para el cumplimiento de AlignIA.

2 de agosto de 2027: Transición completa para sistemas ya comercializados

Fecha límite para que sistemas de IA de alto riesgo ya en el mercado antes de agosto de 2024 cumplan completamente con el AI ACT

Compromiso de AlignIA con el AI ACT

UTILIA SERVICIOS IA S.COOP.CAN (en adelante, UTILIA), como proveedor de AlignIA, se compromete a cumplir plenamente con todas las obligaciones establecidas en el AI ACT, garantizando:

  • Transparencia total sobre el uso de sistemas de inteligencia artificial
  • Clasificación adecuada de nuestros sistemas de IA según niveles de riesgo
  • Supervisión humana obligatoria en todas las decisiones importantes
  • Protección de los derechos de los usuarios ante sistemas automatizados
  • Gobernanza y rendición de cuentas en el uso de IA
  • Coordinación con el RGPD para protección de datos personales

Alcance de este Documento

Este documento describe cómo AlignIA cumple con las obligaciones del AI ACT, proporcionando información completa y transparente sobre:

  • -Los sistemas de inteligencia artificial que utilizamos y su propósito
  • -La clasificación de riesgo de nuestros sistemas de IA
  • -Las obligaciones de transparencia que cumplimos
  • -Los derechos de los usuarios ante el uso de IA
  • -Las medidas de supervisión humana implementadas
  • -La gobernanza y rendición de cuentas de nuestros sistemas de IA

Última Actualización

Este documento ha sido actualizado el 16 de octubre de 2025 para reflejar nuestro compromiso anticipado con el AI ACT antes de su entrada en vigor obligatoria el 2 de agosto de 2026. UTILIA se compromete a mantener este documento actualizado conforme evoluciónen nuestros sistemas de IA y la normativa aplicable.

2. Descripción de los Sistemas de IA

Sistema de Asistencia en Gestión de Personal

AlignIA utiliza inteligencia artificial para asistir a las organizaciones en la gestión y asignación de personal a eventos. El sistema está diseñado como una herramienta de apoyo que genera propuestas y recomendaciones, nunca decisiones finales automatizadas.

Propósito principal: Facilitar y optimizar el proceso de asignación de personal cualificado a eventos, considerando múltiples factores como habilidades, disponibilidad, experiencia y requisitos específicos del evento.

Funcionalidades Asistidas por IA

1. Análisis de Requisitos de Eventos

El sistema analiza las necesidades específicas de cada evento, incluyendo habilidades técnicas requeridas, número de personas necesarias, horarios, ubicación y requisitos especiales.

2. Matching de Habilidades y Disponibilidad

La IA cruza los requisitos del evento con las habilidades profesionales, nivel de experiencia y disponibilidad horaria del personal registrado en la plataforma.

3. Generación de Propuestas de Asignación

El sistema genera propuestas de asignación optimizadas, sugiriendo el personal más adecuado para cada evento basándose en criterios objetivos y datos históricos de asignaciones previas.

4. Sugerencias de Reasignación

Cuando se producen cambios en la disponibilidad del personal o en los requisitos de eventos, el sistema puede sugerir reasignaciones alternativas para mantener la cobertura óptima.

5. Explicación de Recomendaciones

Cada propuesta generada incluye una justificación detallada que explica por qué el sistema considera que determinado personal es adecuado para cada evento, facilitando la revisión humana.

Garantías Fundamentales

  • Supervisión humana obligatoria: Todas las propuestas requieren revisión y aprobación explícita de un administrador humano
  • AIAct.aiSystems.guarantees.noAutomatedDecisions.title AIAct.aiSystems.guarantees.noAutomatedDecisions.description
  • Control total del usuario: Los administradores pueden modificar, rechazar o ignorar completamente las recomendaciones del sistema
  • Transparencia en el proceso: Se proporciona explicación clara de los criterios y factores considerados en cada recomendación

Lo que NO hace nuestro Sistema de IA

  • No toma decisiones finales sobre contratación o despido de personal
  • No evalúa el rendimiento o desempeño laboral de las personas
  • No crea perfiles psicológicos ni analiza características personales
  • No accede a datos sensibles como salud, orientación sexual, creencias religiosas o políticas
  • No realiza seguimiento biométrico ni reconocimiento facial
  • No procesa información de menores de edad

Tecnología y Límites

Nuestro sistema de IA utiliza modelos de lenguaje avanzados para procesar información y generar recomendaciones. Es importante tener en cuenta que, como cualquier sistema de IA, tiene limitaciones: puede no considerar todos los factores contextuales relevantes, puede verse afectado por sesgos en los datos históricos, y sus sugerencias deben siempre ser evaluadas críticamente por profesionales humanos con conocimiento del contexto específico.

3. Clasificación de Riesgo según el AI ACT

Enfoque Basado en Riesgos del AI ACT

El AI ACT establece cuatro niveles de riesgo para los sistemas de inteligencia artificial, cada uno con obligaciones proporcionales:

Riesgo Inaceptable

Sistemas prohibidos que amenazan la seguridad, medios de vida o derechos fundamentales (ej: social scoring, manipulación subliminal)

Riesgo Alto

Sistemas en áreas críticas como salud, justicia, infraestructuras críticas, empleo con decisiones completamente automatizadas

Riesgo Limitado

Sistemas que requieren obligaciones de transparencia específicas (ej: chatbots, sistemas de recomendación con supervisión humana)

Riesgo Mínimo

Sistemas de bajo riesgo con uso libre (ej: filtros de spam, videojuegos con IA)

Clasificación de AlignIA: RIESGO LIMITADO

Los sistemas de IA de AlignIA están clasificados como RIESGO LIMITADO según el marco del AI ACT, y NO constituyen sistemas de alto riesgo.

Esta clasificación se basa en que AlignIA cumple con las siguientes características:

Por qué NO somos un Sistema de Alto Riesgo

Para ser clasificado como alto riesgo en el contexto de empleo y gestión de trabajadores, un sistema de IA debe cumplir los criterios del Anexo III del AI ACT, específicamente la sección sobre "Empleo, gestión de trabajadores y acceso al autoempleo".

AlignIA NO cumple estos criterios porque:

  • AIAct.riskClassification.whyNotHighRisk.items.noAutomatedDecisions.title AIAct.riskClassification.whyNotHighRisk.items.noAutomatedDecisions.description
  • No se utiliza para contratación o despido: AlignIA sólo asiste en la asignación de personal ya contratado a eventos específicos, no influye en decisiones de empleo permanentes.
  • No evalúa rendimiento o desempeño: El sistema no realiza evaluaciones de desempeño laboral, ni influye en promociones, salarios o términos contractuales.
  • Supervisión humana significativa: Los administradores tienen control total y pueden modificar o rechazar cualquier recomendación sin restricciones.
  • No monitorea comportamiento de trabajadores: No realizamos seguimiento continuo ni monitoreo de la actividad o comportamiento del personal.

Análisis Detallado: Exclusión del Anexo III.4

El Anexo III.4 del AI ACT define como sistemas de alto riesgo aquellos utilizados para "empleo, gestión de trabajadores y acceso al autoempleo", específicamente cuando se emplean para:

(a) Contratación, Despido y Promoción

Requisito del AI ACT: Sistemas para reclutar o selecciónar personas naturales, incluida la publicación de anuncios, filtrado de candidatos y evaluación de solicitantes.

AlignIA NO cumple este criterio porque:

  • - No se utiliza en procesos de contratación ni selección de personal
  • - No evalúa candidatos externos ni influye en decisiones de empleo
  • - Sólo asigna personal ya contratado a eventos específicos temporales
  • - No tiene impacto en relaciones laborales permanentes ni términos contractuales

(b) Asignación de Tareas Basadas en Comportamiento Personal

Requisito del AI ACT: Sistemas para asignar tareas basándose en rasgos de personalidad, características individuales o comportamiento de personas en relaciones laborales.

AlignIA NO cumple este criterio porque:

  • - No analiza rasgos de personalidad ni características psicológicas
  • - No procesa datos de comportamiento personal ni patrones de conducta
  • - Los criterios de matching son exclusivamente técnicos y objetivos:
    • - Disponibilidad horaria declarada
    • - Habilidades y certificaciones técnicas verificables
    • - Experiencia registrada en roles similares
    • - Requisitos específicos del evento
  • - Los indicadores operativos registrados (confirmación de ofertas, tiempo de respuesta) NO se utilizan en el algoritmo de matching de IA

(c) Monitoreo y Evaluación del Desempeño

Requisito del AI ACT: Sistemas para monitorear y evaluar el desempeño y comportamiento de personas en relaciones laborales.

AlignIA NO cumple este criterio porque:

  • - No realiza evaluaciones de desempeño laboral
  • - No monitorea el comportamiento de trabajadores durante eventos
  • - No mide ni registra calidad del trabajo o productividad
  • - No genera puntuaciones, ratings ni sistemas de clasificación de personal
  • - Las métricas existentes son puramente administrativas y no evaluativas

Obligaciones Aplicables a Sistemas de Riesgo Limitado

Como sistema de riesgo limitado, AlignIA cumple con las siguientes obligaciones de transparencia establecidas en el Artículo 50 del AI ACT:

  • Información clara a los usuarios: Divulgamos de manera clara y transparente que están interactuando con un sistema de IA
  • Explicación del funcionamiento: Proporcionamos información comprensible sobre cómo funciona el sistema y qué factores considera
  • Identificación de capacidades y limitaciones: Comunicamos claramente qué puede y qué no puede hacer el sistema
  • Accesibilidad de la información: Esta información está disponible de forma clara, visible y fácilmente accesible para todos los usuarios

Gobernanza y Revisión Continua de la Clasificación

UTILIA ha establecido un proceso de gobernanza robusto para garantizar que la clasificación de riesgo de AlignIA permanezca precisa y actualizada:

  • Revisión trimestral: Evaluación periódica de la clasificación de riesgo cada 3 meses, documentando cualquier cambio en funcionalidades, datos procesados o mecanismos de decisión
  • Evaluación de impacto antes de nuevas funcionalidades: Todo desarrollo significativo será precedido por una evaluación de impacto en la clasificación de riesgo AI ACT
  • Monitoreo de jurisprudencia y guías oficiales: Seguimiento continuo de las interpretaciones de autoridades competentes sobre el Anexo III.4
  • Compromiso de reclasificación inmediata: Si cualquier cambio en el sistema cumpliera con los criterios de alto riesgo del Anexo III.4, UTILIA implementará de inmediato todas las obligaciones adicionales del AI ACT (evaluación de conformidad, documentación técnica, sistema de gestión de riesgos, registro en base de datos de la UE)
  • Transparencia con usuarios: Cualquier cambio en la clasificación será comunicado claramente a todos los usuarios con un plazo mínimo de 30 días antes de su implementación

Esta revisión continua garantiza que AlignIA no sólo cumple con el AI ACT hoy, sino que está preparado para adaptarse a futuras evoluciones normativas y cambios en el sistema.

4. Obligaciones de Transparencia

Conforme al Artículo 50 del AI ACT, los proveedores de sistemas de IA de riesgo limitado deben garantizar que los usuarios sean informados de manera clara y transparente de que están interactuando con un sistema de inteligencia artificial.

Divulgación del Uso de IA

AlignIA implementa las siguientes medidas para garantizar transparencia absoluta sobre el uso de inteligencia artificial:

  • Indicadores visuales: Cuando el usuario interactúa con funcionalidades asistidas por IA, se muestra claramente un indicador que identifica que está utilizando un sistema de inteligencia artificial
  • Documentación accesible: Este documento y otras secciones de ayuda explican claramente qué funcionalidades utilizan IA y cómo funcionan
  • Onboarding informativo: Durante el proceso de incorporación inicial, los administradores reciben información sobre las capacidades de IA del sistema
  • Etiquetado de recomendaciones: Todas las propuestas generadas por IA están claramente etiquetadas como tales, diferenciándolas de asignaciones manuales

Información sobre Capacidades y Limitaciones

Proporcionamos información clara y comprensible sobre:

Lo que SÍ puede hacer la IA

  • - Analizar requisitos de eventos
  • - Hacer matching de habilidades
  • - Generar propuestas optimizadas
  • - Sugerir reasignaciones
  • - Explicar recomendaciones
  • - Considerar histórico de asignaciones

Limitaciones del Sistema

  • - No considera todo el contexto organizacional
  • - Puede tener sesgos de datos históricos
  • - No comprende relaciones interpersonales
  • - AIAct.transparency.capabilities.limitations.items.supervision
  • - No garantiza resultados perfectos
  • - Depende de la calidad de datos ingresados

Explicabilidad de las Recomendaciones

Cada recomendación generada por el sistema de IA incluye:

  • -Justificación detallada: Explicación de por qué se recomienda cada persona específica para el evento
  • -Factores considerados: Lista de criterios evaluados (habilidades, experiencia, disponibilidad, historial)
  • -Puntuación de adecuación: Indicador del grado de coincidencia entre requisitos del evento y perfil del personal
  • -Alternativas: Cuando es posible, se muestran opciones alternativas con sus respectivas justificaciones

Factores de Matching Utilizados por el Sistema de IA

Para garantizar máxima transparencia, estos son los factores exactos que el algoritmo de IA utiliza para generar recomendaciones de asignación de personal:

Criterios Utilizados en el Matching de IA

  1. Disponibilidad horaria: Coincidencia entre la disponibilidad declarada del personal y las fechas/horarios del evento
  2. Habilidades técnicas: Correspondencia entre las habilidades requeridas por el evento y las habilidades registradas del personal
  3. Nivel de experiencia: Comparación entre el nivel de experiencia requerido y el nivel de experiencia del personal en las habilidades relevantes
  4. Certificaciones: Verificación de certificaciones técnicas cuando el evento las requiere específicamente
  5. Proximidad geográfica: Distancia entre la ubicación del personal y la ubicación del evento (cuando aplique)
  6. Historial de asignaciones: Experiencia previa en eventos similares como referencia informativa (no evaluativa)

Factores NO Utilizados en el Matching de IA

El algoritmo de matching NO considera ni utiliza los siguientes factores:

  • - Métricas de rendimiento o evaluaciones de desempeño
  • - Tasa de confirmación de ofertas
  • - Tiempo de respuesta a solicitudes
  • - Rasgos de personalidad o características psicológicas
  • - Patrones de comportamiento personal
  • - Datos de categorías especiales (salud, religión, orientación sexual, etc.)
  • - Puntuaciones o ratings de calidad del trabajo

Los indicadores operativos mencionados (confirmación, tiempo de respuesta) se registran únicamente para propósitos administrativos y de gestión operativa, pero están explícitamente excluidos del algoritmo de matching de IA.

AIAct.transparency.proactiveCommunication.title

AIAct.transparency.proactiveCommunication.intro

  • -AIAct.transparency.proactiveCommunication.items.newFeatures
  • -AIAct.transparency.proactiveCommunication.items.changes
  • -AIAct.transparency.proactiveCommunication.items.updates
  • -AIAct.transparency.proactiveCommunication.items.queries
  • -AIAct.transparency.proactiveCommunication.items.reports

Accesibilidad de la Información

Toda la información sobre el uso de IA está disponible en múltiples formatos y canales: documentación en línea, interfaz de usuario, centro de ayuda, y atención directa. Nos comprometemos a que esta información sea clara, comprensible y accesible para todos los usuarios, independientemente de su nivel de conocimientos técnicos.

5. Derechos de los Usuarios

En cumplimiento del AI ACT y coordinación con el RGPD, todos los usuarios de AlignIA tienen derechos específicos relacionados con el uso de sistemas de inteligencia artificial.

Derecho a ser Informado

Tiene derecho a saber:

  • Cuándo está interactuando con un sistema de IA
  • Qué funcionalidades específicas utilizan inteligencia artificial
  • Qué datos se procesan por los sistemas de IA
  • El propósito y la finalidad del procesamiento automatizado
  • Las capacidades y limitaciones del sistema

Derecho a Revisión Humana

Todas las recomendaciones de IA están sujetas a revisión humana obligatoria.

Esto significa que:

  • Ninguna asignación de personal se realiza automáticamente sin aprobación de un administrador humano
  • Los administradores pueden modificar cualquier recomendación antes de aplicarla
  • Los administradores pueden rechazar completamente las sugerencias del sistema
  • El personal afectado puede solicitar revisión humana adicional de cualquier asignación

Derecho a Explicación

Tiene derecho a comprender cómo funciona el sistema de IA y por qué genera determinadas recomendaciones.

Puede solicitar explicaciones sobre:

  • -La lógica aplicada en una recomendación específica
  • -Los factores que el sistema consideró para generar una propuesta
  • -El peso relativo de cada criterio en la recomendación
  • -Por qué se sugirió una persona en particular para un evento
  • -Alternativas consideradas por el sistema

Derecho a Impugnación

Si considera que una recomendación o asignación generada con ayuda de IA es incorrecta, inadecuada o presenta algún problema, tiene derecho a:

  • Impugnar la recomendación: Expresar su desacuerdo con las sugerencias del sistema
  • Solicitar revisión manual: Pedir que un humano revise la situación sin basarse en las recomendaciones de IA
  • Proporcionar contexto adicional: Aportar información que el sistema no haya considerado
  • Solicitar corrección: Pedir que se modifique una asignación basada en recomendaciones de IA

AIAct.userRights.rightToNoAutomatedDecisions.title

AIAct.userRights.rightToNoAutomatedDecisions.intro AIAct.userRights.rightToNoAutomatedDecisions.article22AIAct.userRights.rightToNoAutomatedDecisions.introEnd

AIAct.userRights.rightToNoAutomatedDecisions.allDecisions AIAct.userRights.rightToNoAutomatedDecisions.allDecisionsEnd

Derecho de Acceso, Rectificación y Supresión de Datos

En relación con los datos procesados por sistemas de IA, mantiene todos los derechos ARCO establecidos en el RGPD:

  • -Acceso: Consultar qué datos suyos procesa el sistema de IA
  • -Rectificación: Corregir datos inexactos o incompletos
  • -Supresión: Solicitar la eliminación de sus datos personales
  • -Portabilidad: Recibir sus datos en formato estructurado

Cómo Ejercer sus Derechos

Para ejercer cualquiera de estos derechos relacionados con el uso de IA:

Procedimiento:

  1. Contacto inicial: Envíe su solicitud a compliance@utilia.ai
  2. Identificación: Incluya información que nos permita verificar su identidad y localizar sus datos
  3. Especificación: Indique claramente qué derecho desea ejercer y sobre qué aspecto específico
  4. Respuesta: Recibirá respuesta en un plazo máximo de 30 días naturales desde la recepción de su solicitud

Si no está satisfecho con nuestra respuesta, puede presentar una reclamación ante la Agencia Española de Protección de Datos (AEPD) en www.aepd.es

Garantía de No Discriminación

AIAct.userRights.nonDiscrimination.description

6. Procesamiento de Datos por Sistemas de IA

El sistema de inteligencia artificial de AlignIA procesa únicamente los datos estrictamente necesarios para generar recomendaciones de asignación de personal a eventos, cumpliendo con los principios de minimización y finalidad limitada establecidos en el RGPD.

Datos de Eventos Procesados

Para generar recomendaciones, el sistema de IA analiza la siguiente información de eventos:

  • -Nombre y descripción del evento
  • -Fecha, hora y duración
  • -Ubicación (ciudad, dirección, tipo de instalación)
  • -Habilidades técnicas requeridas
  • -Número de personas necesarias
  • -Nivel de experiencia requerido
  • -Requisitos especiales del evento

Datos de Personal Procesados

Para realizar el matching entre eventos y personal, el sistema de IA procesa:

  • -Nombre del personal
  • -Habilidades profesionales declaradas
  • -Nivel de experiencia en cada habilidad
  • -Especialidades o certificaciones relevantes
  • -Disponibilidad horaria
  • -Ubicación geográfica o preferencia de zona de trabajo
  • -Historial de asignaciones previas (únicamente como referencia)

Finalidad del Procesamiento

Los datos se procesan exclusivamente para las siguientes finalidades específicas:

1. Generación de Propuestas de Asignación

Analizar la correspondencia entre requisitos de eventos y perfiles de personal para sugerir las asignaciones más adecuadas.

2. Optimización de Recursos

Maximizar la utilización eficiente del personal disponible considerando múltiples eventos y restricciones simultáneas.

3. Mejora Continua del Sistema

Análisis agregado y anonimizado del rendimiento del sistema para mejorar la calidad de las recomendaciones.

4. Auditoría y Trazabilidad

Registro de las recomendaciones generadas para permitir auditorías, revisión y mejora del sistema.

Principio de Minimización de Datos

Aplicamos estrictamente el principio de minimización de datos:

  • Sólo datos necesarios: El sistema procesa únicamente la información estrictamente necesaria para su función específica
  • No procesamos datos sensibles: No accedemos a categorías especiales de datos (salud, orientación sexual, religión, etc.)
  • Limitación de almacenamiento: Los datos procesados por IA se conservan sólo durante el tiempo necesario
  • Aislamiento por organización: Multi-tenancy estricto garantiza que cada organización sólo accede a sus propios datos

Exactitud y Actualización de Datos

Para garantizar recomendaciones precisas y justas:

  • -Los usuarios pueden actualizar su información de habilidades y disponibilidad en cualquier momento
  • -El sistema utiliza siempre la información más reciente disponible
  • -Los administradores son responsables de mantener actualizada la información de eventos y personal
  • -Se proporciona funcionalidad para corregir errores en los datos de manera inmediata

Almacenamiento y Retención

Los datos procesados por sistemas de IA se gestiónan de la siguiente manera:

  • -Base de datos segura: Todos los datos se almacenan en bases de datos cifradas
  • -Logs de auditoría: Las recomendaciones generadas se registran en logs conservados por 90 días para auditoría
  • -Copias de seguridad: Se realizan copias de seguridad automáticas con cifrado
  • -Eliminación segura: Cuando se eliminan datos, se borran de manera segura y permanente

Transferencias de Datos a Proveedores de IA (OpenAI)

AlignIA utiliza los servicios de inteligencia artificial de OpenAI para generar recomendaciones de asignación. Esta relación implica transferencias internacionales de datos que están debidamente reguladas:

Detalles de la Transferencia a OpenAI

  • -Proveedor: OpenAI, LLC
  • -Ubicación: Estados Unidos
  • -Finalidad: Procesamiento mediante modelos de lenguaje para generar propuestas de asignación de personal
  • -Base legal: Cláusulas Contractuales Tipo (Standard Contractual Clauses - SCC) aprobadas por la Comisión Europea
  • -Retención por OpenAI: Según la política de OpenAI, los datos enviados a través de la API no se utilizan para entrenamiento de modelos y se eliminan después de 30 días, salvo obligaciones legales de retención
  • -Políticas de OpenAI: Business Terms - Privacy Policy - Data Processing Addendum

Garantías de Protección

UTILIA ha verificado que OpenAI cumple con las garantías adecuadas para transferencias internacionales según el Capítulo V del RGPD. Además, OpenAI está comprometido con el cumplimiento del AI ACT europeo y ha implementado medidas técnicas y organizativas apropiadas para proteger los datos procesados.

Transparencia en el Procesamiento

Para más información detallada sobre el procesamiento de datos personales, incluyendo bases legales, transferencias internacionales y derechos de los interesados, consulte nuestra Política de Privacidad y nuestro documento de Cumplimiento GDPR.

7. Coordinación con el GDPR

El AI ACT y el RGPD (GDPR) son normas complementarias que se aplican conjuntamente cuando los sistemas de inteligencia artificial procesan datos personales. AlignIA cumple con ambos marcos normativos de manera coordinada y coherente.

Relación Complementaria entre AI ACT y GDPR

El AI ACT y el GDPR abordan aspectos diferentes pero relacionados:

AI ACT

  • - Seguridad de sistemas de IA
  • - Clasificación de riesgos
  • - Transparencia del uso de IA
  • - Supervisión humana
  • - Gobernanza de IA
  • - Exactitud y robustez técnica

GDPR

  • - Protección de datos personales
  • - Bases legales del tratamiento
  • - Derechos de los interesados
  • - Principios de protección de datos
  • - Transferencias internacionales
  • - Seguridad de datos personales

Cuando un sistema de IA procesa datos personales (como es el caso de AlignIA), deben cumplirse simultáneamentelas obligaciones de ambos marcos normativos.

Evaluación de Impacto Coordinada

UTILIA realiza evaluaciones de impacto que consideran ambos marcos normativos:

  • Evaluación de Impacto en Protección de Datos (DPIA): Análisis del impacto del procesamiento de datos personales conforme al Artículo 35 del RGPD
  • Evaluación de Riesgos de IA: Análisis de los riesgos específicos derivados del uso de sistemas de inteligencia artificial
  • Evaluación Conjunta: Consideración integrada de los riesgos para datos personales y de los riesgos derivados del uso de IA

Protección de Datos Personales en Sistemas de IA

La protección de datos personales procesados por sistemas de IA en AlignIA se garantiza mediante:

1. Bases Legales Apropiadas

Todo procesamiento de datos por sistemas de IA se basa en las bases legales establecidas en el Artículo 6 del RGPD: ejecución de contrato y consentimiento del interesado cuando corresponda.

2. Minimización de Datos

Los sistemas de IA procesan únicamente los datos personales estrictamente necesarios para su finalidad específica, cumpliendo el principio de minimización del RGPD.

3. Transparencia y Explicabilidad

Se proporciona información clara sobre el procesamiento de datos por IA, cumpliendo con las obligaciones de transparencia del RGPD (Artículos 13 y 14).

4. Derechos de los Interesados

Se garantiza el pleno ejercicio de todos los derechos ARCO (acceso, rectificación, supresión, oposición) en relación con los datos procesados por IA.

5. Seguridad y Confidencialidad

Medidas técnicas y organizativas apropiadas garantizan la seguridad de los datos personales procesados por sistemas de IA, cumpliendo el Artículo 32 del RGPD.

Artículo 22 RGPD y Decisiones Automatizadas

El Artículo 22 del RGPD establece el derecho a no ser objeto de decisiones basadas únicamente en tratamiento automatizado que produzcan efectos jurídicos o afecten significativamente.

AlignIA cumple plenamente con este artículo porque:

  • Ninguna decisión se toma basándose únicamente en procesamiento automatizado
  • Todas las recomendaciones de IA requieren revisión y aprobación humana explícita
  • Los usuarios tienen derecho a obtener intervención humana, expresar su punto de vista y impugnar decisiones
  • Se proporcionan garantías adecuadas de los derechos y libertades del interesado

Gestión de Protección de Datos

De acuerdo con el artículo 37 del RGPD, UTILIA evalúa periódicamente la necesidad de designar un Delegado de Protección de Datos (DPO). Actualmente, las funciones de protección de datos son gestionadas directamente por el equipo de cumplimiento legal de UTILIA, que supervisa:

  • -AIAct.gdprCoordination.dpoManagement.items.supervision
  • -Asesoramiento sobre evaluaciones de impacto de protección de datos
  • -Punto de contacto con la autoridad de control (AEPD)
  • -Atención de consultas y reclamaciones de interesados

Contacto para protección de datos: compliance@utilia.ai

Documentos Relacionados

Para información completa sobre protección de datos personales, consulte:

Compromiso de Cumplimiento Integrado

UTILIA se compromete a mantener un enfoque integrado de cumplimiento normativo que considera simultáneamente las obligaciones del AI ACT y del RGPD, garantizando la máxima protección de los derechos fundamentales de los usuarios en el contexto del uso de inteligencia artificial.

8. Supervisión Humana

El AI ACT establece requisitos estrictos de supervisión humana para sistemas de IA, especialmente aquellos clasificados como de alto riesgo. Aunque AlignIA es un sistema de riesgo limitado, implementamos medidas de supervisión humana rigurosas que van más allá de las obligaciones mínimas.

Principio Fundamental

NINGUNA decisión final se toma sin intervención humana. Todos los sistemas de IA en AlignIA funcionan bajo supervisión humana constante, y todas las propuestas generadas requieren aprobación explícita de un administrador humano antes de aplicarse.

Modelo de Supervisión Human-in-the-Loop

AlignIA implementa un modelo "Human-in-the-Loop" donde los humanos están siempre presentes en el proceso de toma de decisiones:

Flujo de Trabajo:

  1. Entrada de requisitos: El administrador humano define los requisitos del evento
  2. Procesamiento por IA: El sistema analiza y genera propuestas de asignación
  3. Presentación de propuestas: Las recomendaciones se presentan al administrador con explicaciones detalladas
  4. Revisión humana obligatoria: El administrador evalúa las propuestas, considerando contexto y factores no cuantificables
  5. AIAct.humanOversight.hitl.workflow.steps.decision.title AIAct.humanOversight.hitl.workflow.steps.decision.description
  6. Aplicación manual: Sólo después de aprobación humana explícita se ejecuta la asignación

Capacidades de los Supervisores Humanos

Los administradores que supervisan las recomendaciones de IA tienen plenas capacidades para:

  • Comprender las recomendaciones: Acceder a explicaciones detalladas de por qué el sistema sugiere cada asignación
  • Modificar propuestas: Cambiar cualquier aspecto de las recomendaciones generadas por IA
  • Rechazar sugerencias: Descartar completamente las propuestas del sistema sin consecuencias
  • Realizar asignaciones manuales: Crear asignaciones completamente manuales sin usar IA
  • Intervenir en cualquier momento: Modificar o revertir asignaciones incluso después de su aplicación
  • Desactivar el sistema de IA: Optar por no utilizar las funcionalidades de IA si lo consideran apropiado

Responsabilidad de los Supervisores Humanos

Los administradores humanos mantienen la responsabilidad final sobre todas las decisiones:

  • -Responsabilidad por decisiones finales: La responsabilidad de las asignaciones recae en los administradores, no en el sistema de IA
  • -Evaluación contextual: Los supervisores deben considerar factores contextuales que el sistema no puede conocer
  • -Verificación de adecuación: Confirmar que las recomendaciones son apropiadas para el contexto específico
  • -Detección de errores: Identificar posibles errores o sesgos en las recomendaciones de IA

Capacitación de Supervisores

Para garantizar una supervisión efectiva, UTILIA proporciona:

  • Documentación completa: Guías detalladas sobre cómo funcionan los sistemas de IA y cómo interpretar sus recomendaciones
  • Onboarding específico: Formación inicial sobre el uso responsable de las funcionalidades de IA
  • Información sobre limitaciones: Clarificación de qué puede y qué no puede hacer el sistema
  • Mejores prácticas: Orientación sobre cómo combinar efectivamente el juicio humano con las recomendaciones de IA
  • Soporte continuo: Acceso a ayuda y asesoramiento sobre el uso del sistema

Herramientas de Supervisión

El sistema proporciona herramientas específicas para facilitar la supervisión humana efectiva:

  • -Explicaciones detalladas: Justificación clara de cada recomendación
  • -Indicadores de confianza: Puntuaciones que muestran el nivel de adecuación de cada sugerencia
  • -Alternativas visibles: Presentación de opciones alternativas cuando están disponibles
  • -Historial de decisiones: Registro de qué propuestas fueron aceptadas, modificadas o rechazadas
  • -Interfaz intuitiva: Diseño que facilita la revisión rápida pero efectiva de recomendaciones

Prevención de Dependencia Excesiva

Para evitar que los supervisores humanos dependan excesivamente de las recomendaciones de IA (automation bias), implementamos:

  • Énfasis en limitaciones: Recordatorios constantes de que el sistema tiene limitaciones y no es infalible
  • Fomento del pensamiento crítico: La interfaz incentiva la revisión activa, no la aprobación automática
  • Sin aprobación en masa: Cada recomendación debe revisarse individualmente
  • Visibilidad de incertidumbre: El sistema comunica claramente cuando tiene baja confianza en una recomendación

Supervisión Humana como Pilar Fundamental

La supervisión humana no es sólo una obligación regulatoria para AlignIA, sino un pilar fundamental de nuestro diseño. Creemos que los mejores resultados se obtienen cuando la inteligencia artificial complementa (no reemplaza) el juicio humano, combinando la capacidad de procesamiento de la IA con la comprensión contextual, la intuición y los valores éticos humanos.

9. Responsabilidad y Gobernanza

En cumplimiento del AI ACT y el principio de accountability del RGPD, UTILIA ha establecido una estructura de gobernanza clara para garantizar el uso responsable de la inteligencia artificial en AlignIA.

Estructura de Gobernanza de IA

UTILIA ha establecido roles y responsabilidades claras para la gobernanza de sistemas de IA:

Responsable de Cumplimiento de IA

  • - AIAct.accountability.governance.roles.compliance.items.supervision
  • - Coordinación con el DPO para aspectos de protección de datos
  • - Evaluación continua de riesgos de sistemas de IA
  • - Gestión de actualizaciones y cambios significativos
  • - Punto de contacto para consultas sobre IA

Equipo de Desarrollo y Mantenimiento

  • - Implementación técnica de sistemas de IA
  • - Monitoreo del rendimiento y precisión
  • - Detección y corrección de sesgos
  • - Mejora continua de algoritmos
  • - Documentación técnica completa

Delegado de Protección de Datos (DPO)

  • - AIAct.accountability.governance.roles.dpo.items.supervision
  • - Evaluaciones de impacto de protección de datos
  • - Asesoramiento sobre cumplimiento del RGPD
  • - Atención de derechos de interesados
  • - Coordinación con autoridades de control

Dirección Ejecutiva

  • - Responsabilidad final por gobernanza de IA
  • - Aprobación de políticas y procedimientos
  • - Asignación de recursos para cumplimiento
  • - AIAct.accountability.governance.roles.executive.items.decisions
  • - Supervisión de gestión de riesgos

Evaluación Continua de Riesgos

UTILIA realiza evaluaciones periódicas de los riesgos asociados a los sistemas de IA:

  • Evaluación inicial: Análisis exhaustivo de riesgos antes de implementar nuevas funcionalidades de IA
  • Revisiones trimestrales: Evaluación regular del funcionamiento y riesgos de los sistemas en producción
  • Evaluaciones ad-hoc: Análisis inmediato cuando se detectan incidentes o problemas
  • Actualización de clasificación: Revisión de la clasificación de riesgo cuando cambian las funcionalidades

Documentación y Trazabilidad

Mantenemos documentación completa y trazable de todos los aspectos de nuestros sistemas de IA:

Documentación Técnica

  • - Arquitectura del sistema
  • - Algoritmos utilizados
  • - Datos de entrenamiento
  • - Métricas de rendimiento
  • - Limitaciones conocidas

Documentación de Gobernanza

  • - Políticas de uso de IA
  • - Evaluaciones de riesgo
  • - Procedimientos de supervisión
  • - Planes de contingencia
  • - Registros de incidentes

Documentación Operativa

  • - Logs de recomendaciones
  • - AIAct.accountability.documentation.types.operational.items.decisions
  • - Auditorías realizadas
  • - Cambios implementados
  • - Resultados de evaluaciones

Documentación de Cumplimiento

  • - Análisis de cumplimiento AI ACT
  • - Evaluaciones DPIA
  • - Informes de transparencia
  • - AIAct.accountability.documentation.types.compliance.items.communications
  • - Respuestas a consultas

Gestión de Incidentes y Problemas

Tenemos establecidos procedimientos claros para gestionar incidentes relacionados con sistemas de IA:

Protocolo de Respuesta:

  1. Detección: Identificación del incidente a través de monitoreo automático o reporte de usuarios
  2. Clasificación: Evaluación de la severidad y potencial impacto del incidente
  3. Contención: Medidas inmediatas para limitar el impacto (desactivación temporal si es necesario)
  4. Investigación: Análisis de las causas raíz del problema
  5. Corrección: Implementación de soluciones permanentes
  6. Documentación: Registro completo del incidente, análisis y acciones tomadas
  7. AIAct.accountability.incidents.protocol.steps.communication.title AIAct.accountability.incidents.protocol.steps.communication.description
  8. Prevención: Medidas para evitar recurrencia

Mejora Continua

Implementamos un ciclo de mejora continua para nuestros sistemas de IA:

  • -Monitoreo de métricas: Seguimiento continuo de indicadores clave de rendimiento
  • -Análisis de feedback: Revisión sistemática de comentarios de usuarios y supervisores
  • -Detección de sesgos: Evaluación regular para identificar y corregir posibles sesgos
  • -Optimización de algoritmos: Mejoras basadas en datos de uso real y evaluaciones
  • -Actualización de documentación: Mantenimiento actualizado de toda la documentación relevante

Auditorías y Revisiones

Realizamos auditorías regulares de nuestros sistemas de IA:

  • Auditorías internas semestrales: Revisión completa del cumplimiento y funcionamiento
  • Revisiones técnicas trimestrales: Evaluación de métricas de rendimiento y precisión
  • Auditorías de seguridad anuales: Evaluación de medidas de seguridad por terceros
  • Revisiones de cumplimiento normativo: Verificación de adherencia al AI ACT y RGPD

Responsabilidad ante los Usuarios

UTILIA asume plena responsabilidad por el funcionamiento de sus sistemas de IA:

  • -No trasladamos la responsabilidad a los usuarios finales
  • -Atendemos todas las consultas y reclamaciones sobre el funcionamiento de la IA
  • -Mantenemos canales de comunicación abiertos y accesibles
  • -Actuamos proactivamente cuando detectamos problemas
  • -Proporcionamos compensación apropiada en caso de fallos del sistema

Compromiso con la Accountability

UTILIA se compromete a demostrar accountability (responsabilidad proactiva) en el uso de inteligencia artificial, manteniendo una gobernanza sólida, documentación completa, procesos de mejora continua y transparencia total con todos los interesados. La responsabilidad no es sólo un requisito legal, sino un valor fundamental de nuestra organización.

10. Medidas de Seguridad

La seguridad de los sistemas de inteligencia artificial es fundamental tanto para el AI ACT como para el RGPD. AlignIA implementa medidas técnicas y organizativas robustas para garantizar la seguridad, integridad y disponibilidad de los sistemas de IA y los datos que procesan.

Seguridad de la Infraestructura

Los sistemas de IA de AlignIA operan sobre una infraestructura segura:

  • Infraestructura en la nube certificada: Servidores en proveedores cloud con certificaciones ISO 27001, SOC 2
  • Aislamiento de entornos: Separación estricta entre entornos de producción, desarrollo y pruebas
  • Arquitectura multi-tenancy segura: Cada organización tiene sus datos completamente aislados
  • Redundancia y alta disponibilidad: Sistemas distribuidos para garantizar continuidad del servicio
  • Monitoreo 24/7: Supervisión continua de la salud y seguridad de la infraestructura

Cifrado y Protección de Datos

Todos los datos procesados por sistemas de IA están protegidos mediante cifrado:

  • Cifrado en transito: TLS 1.3 para todas las comunicaciones entre cliente y servidor
  • Cifrado en reposo: AES-256 para datos almacenados en bases de datos y sistemas de archivos
  • Gestión segura de claves: Uso de servicios de gestión de claves (KMS) con rotación periódica
  • Cifrado de backups: Todas las copias de seguridad están cifradas
  • Protección de secretos: Credenciales y configuraciones sensibles almacenadas en servicios especializados

Control de Acceso

Implementamos controles de acceso estrictos basados en el principio de mínimo privilegio:

  • Autenticación robusta: Autenticación multifactor obligatoria para administradores
  • Control de acceso basado en roles (RBAC): Permisos granulares según roles de usuario
  • Acceso temporal limitado: Sesiones con timeout automático tras inactividad
  • Registro de accesos: Logs completos de quién accede a qué y cuándo
  • Revisión periódica de permisos: Auditoría regular de accesos y privilegios

Auditoría y Trazabilidad

Mantenemos registros completos de eventos para auditoría y trazabilidad:

  • -Logs de recomendaciones de IA: Registro de todas las propuestas generadas con timestamp y contexto
  • -AIAct.security.auditTraceability.items.decisionLogs.title AIAct.security.auditTraceability.items.decisionLogs.description
  • -Logs de acceso: Registro de autenticaciones y accesos a funcionalidades sensibles
  • -Logs de cambios: Rastro completo de modificaciones en datos y configuraciones
  • -Retención de 90 días: Los logs de auditoría se conservan durante 90 días para investigaciones
  • -Protección de logs: Los registros de auditoría son inmutables y están protegidos contra manipulación

Seguridad del Modelo de IA

Protegemos específicamente los modelos de IA contra amenazas:

  • Protección contra manipulación: Validación de entradas para prevenir ataques adversarios
  • Límites de tasa: Rate limiting para prevenir abuso del sistema
  • Sanitización de datos: Limpieza y validación de todos los datos de entrada
  • Monitoreo de anomalías: Detección automática de comportamientos inusuales
  • Actualizaciones de seguridad: Parches y actualizaciones periódicas de componentes

Copias de Seguridad y Recuperación

Garantizamos la disponibilidad y recuperación de datos mediante:

  • -Backups automáticos diarios: Copias de seguridad completas cada 24 horas
  • -Backups incrementales: Copias incrementales cada 6 horas
  • -Almacenamiento en múltiples ubicaciones: Backups replicados en diferentes zonas geográficas
  • -Pruebas de recuperación: Verificación trimestral de procedimientos de restauración
  • -RTO y RPO definidos: Recovery Time Objective de 4 horas, Recovery Point Objective de 6 horas

Seguridad Organizativa

Complementamos la seguridad técnica con medidas organizativas:

  • Políticas de seguridad: Documentación completa de políticas y procedimientos de seguridad
  • Capacitación del personal: Formación regular en seguridad y buenas prácticas
  • Acuerdos de confidencialidad: Todo el personal firma NDAs y codigos de conducta
  • Plan de respuesta a incidentes: Procedimientos documentados para gestión de brechas de seguridad
  • Revisiones periódicas: Auditorías de seguridad anuales por terceros independientes

Gestión de Vulnerabilidades

Mantenemos un proceso continuo de identificación y corrección de vulnerabilidades:

  • -Escaneo automático semanal de vulnerabilidades
  • -Análisis de dependencias y bibliotecas de terceros
  • -Aplicación prioritaria de parches críticos en menos de 48 horas
  • -Programa de divulgación responsable de vulnerabilidades
  • -Pruebas de penetración anuales

Certificaciones y Estándares

UTILIA trabaja activamente hacia la obtención de certificaciones reconocidas en seguridad de la información (ISO 27001) y está comprometida con el cumplimiento de estándares de la industria. Nuestras medidas de seguridad están diseñadas conforme a las mejores prácticas internacionales y se revisan regularmente para mantener el más alto nivel de protección.

11. Monitoreo y Actualizaciones

El monitoreo continuo y las actualizaciones regulares son esenciales para mantener sistemas de IA seguros, precisos y conformes con las regulaciones. UTILIA implementa procesos sistemáticos de supervisión y mejora continua de los sistemas de IA de AlignIA.

Monitoreo Continuo del Rendimiento

Monitoreamos constantemente múltiples aspectos del funcionamiento de los sistemas de IA:

Métricas de Precisión

  • - Tasa de aceptación de recomendaciones por administradores
  • - Modificaciones realizadas a las propuestas de IA
  • - Coincidencia entre criterios y resultados esperados
  • - Feedback de usuarios sobre la calidad de recomendaciones

Métricas de Rendimiento Técnico

  • - Tiempo de respuesta del sistema
  • - Disponibilidad y uptime
  • - Tasa de errores y excepciones
  • - Uso de recursos computacionales

Métricas de Equidad

  • - Distribución de asignaciones entre personal
  • - Detección de posibles sesgos sistemáticos
  • - Análisis de patrones de recomendaciones
  • - Evaluación de equidad en oportunidades

Métricas de Uso

  • - Frecuencia de uso de funcionalidades de IA
  • - Patrones de interacción de usuarios
  • - Volumen de recomendaciones generadas
  • - Tendencias de adopción

Detección y Corrección de Sesgos

Implementamos procesos específicos para identificar y corregir sesgos en las recomendaciones de IA:

  • Análisis estadístico mensual: Evaluación de patrones de recomendaciones para detectar sesgos potenciales
  • Revisión de datos históricos: Evaluación del impacto de sesgos en datos de entrenamiento
  • Ajustes correctivos: Modificación de algoritmos cuando se detectan sesgos injustificados
  • Pruebas de equidad: Testing específico para garantizar recomendaciones justas
  • Transparencia sobre sesgos conocidos: Comunicación proactiva de limitaciones identificadas

Proceso de Actualización de Sistemas de IA

Las actualizaciones de sistemas de IA siguen un proceso riguroso:

Ciclo de Actualización:

  1. Identificación de mejoras: Análisis de métricas, feedback y nuevos requisitos
  2. Evaluación de impacto: Análisis de cómo los cambios afectarán rendimiento y cumplimiento normativo
  3. Desarrollo y testing: Implementación en entorno de pruebas con validación exhaustiva
  4. Evaluación de riesgos: Revisión de nuevos riesgos introducidos por los cambios
  5. Aprobación interna: Revisión por responsables de cumplimiento y técnicos
  6. AIAct.monitoring.updateProcess.cycle.steps.communication.title AIAct.monitoring.updateProcess.cycle.steps.communication.description
  7. Despliegue gradual: Rollout progresivo con monitoreo intensivo
  8. Evaluación post-despliegue: Análisis de impacto real y ajustes si es necesario

Tipos de Actualizaciones

Distinguimos entre diferentes tipos de actualizaciones según su impacto:

Actualizaciones Mayores

Cambios significativos en funcionalidad o comportamiento del sistema

  • - Requieren notificación anticipada
  • - Evaluación de impacto completa
  • - Actualización de documentación
  • - Formación a usuarios si es necesario

Actualizaciones Menores

Mejoras incrementales, ajustes de precisión

  • - Despliegue más rápido
  • - Evaluación de riesgo simplificada
  • - Documentación en changelog
  • - Notificación en notas de versión

Parches de Seguridad

Correcciones críticas de seguridad

  • - Despliegue prioritario inmediato
  • - Testing acelerado pero riguroso
  • - AIAct.monitoring.updateTypes.security.items.communication
  • - Revisión post-mortem obligatoria

Correcciones de Errores

Solución de bugs identificados

  • - Priorización según severidad
  • - Testing de regresión completo
  • - Documentación de la corrección
  • - AIAct.monitoring.updateTypes.bugfixes.items.communication

AIAct.monitoring.changeCommunication.title

AIAct.monitoring.changeCommunication.intro

  • AIAct.monitoring.changeCommunication.items.inApp.title AIAct.monitoring.changeCommunication.items.inApp.description
  • AIAct.monitoring.changeCommunication.items.emails.title AIAct.monitoring.changeCommunication.items.emails.description
  • AIAct.monitoring.changeCommunication.items.releaseNotes.title AIAct.monitoring.changeCommunication.items.releaseNotes.description
  • AIAct.monitoring.changeCommunication.items.docUpdates.title AIAct.monitoring.changeCommunication.items.docUpdates.description
  • AIAct.monitoring.changeCommunication.items.support.title AIAct.monitoring.changeCommunication.items.support.description

Feedback de Usuarios

El feedback de usuarios es fundamental para la mejora continua:

  • -Canales de reporte: Múltiples vías para reportar problemas o sugerir mejoras
  • -Análisis sistemático: Revisión regular de feedback para identificar patrones
  • -Priorización de mejoras: Roadmap influenciado por necesidades de usuarios
  • -Comunicación de acciones: Información sobre cómo el feedback ha influido en mejoras

Mantenimiento del Cumplimiento Normativo

Monitoreamos constantemente la evolución del marco regulatorio:

  • Seguimiento del AI ACT: Atención a guías, interpretaciones y actualizaciones del reglamento
  • Coordinación con RGPD: Mantenimiento del cumplimiento coordinado de ambas normativas
  • Adaptación proactiva: Implementación anticipada de requisitos futuros cuando sea posible
  • Actualización de documentación: Este documento se actualiza cuando hay cambios relevantes

Compromiso con la Mejora Continua

UTILIA se compromete a mantener sus sistemas de IA en constante evolución y mejora, respondiendo tanto a los avances tecnológicos como a las necesidades de los usuarios y los cambios en el marco regulatorio. El monitoreo continuo y las actualizaciones regulares no son sólo obligaciones de cumplimiento, sino parte integral de nuestra filosofía de ofrecer el mejor servicio posible de manera responsable y ética.

12. Información de Contacto

Para consultas, ejercicio de derechos o información adicional sobre el cumplimiento del AI ACT en AlignIA, puede contactar con UTILIA a través de los siguientes canales:

Responsable del Tratamiento

Razón Social: UTILIA SERVICIOS IA S.COOP.CAN

NIF: F75452102

Domicilio Social:
Calle Teniente Coronel Castillo Olivares n26
Piso 16 A2
Las Palmas de Gran Canaria
Canarias, España

Responsable de Cumplimiento de IA

Para consultas específicas sobre el cumplimiento del AI ACT, uso de inteligencia artificial, clasificación de riesgos, transparencia y supervisión humana:

Email: compliance@utilia.ai

Asunto sugerido: "Consulta AI ACT - AlignIA"

El Responsable de Cumplimiento de IA es el punto de contacto principal para todas las cuestiones relacionadas con el funcionamiento de sistemas de inteligencia artificial, evaluaciones de riesgo, gobernanza de IA y cumplimiento del AI ACT.

Contacto General

Para consultas generales sobre AlignIA, soporte técnico o información comercial:

Email general: info@utilia.ai

Procedimiento para Consultas y Reclamaciones

Si desea realizar una consulta o presentar una reclamación relacionada con el uso de IA:

Pasos a seguir:

  1. Envie su consulta o reclamación: Utilice el email apropiado según la naturaleza de su consulta (AI ACT, protección de datos, o general)
  2. Incluya información relevante:
    • - Sus datos de contacto (nombre, email, teléfono)
    • - Descripción detallada de su consulta o reclamación
    • - Referencia específica si corresponde (evento, recomendación, etc.)
    • - Documentación de soporte si es relevante
  3. Acuse de recibo: Recibirá confirmación de recepción en un plazo máximo de 48 horas laborables
  4. Investigación: Analizaremos su consulta o reclamación de manera exhaustiva
  5. Respuesta: Recibirá respuesta completa en un plazo máximo de 30 días naturales desde la recepción

Derecho a Reclamación ante Autoridades

Si considera que sus derechos relacionados con el AI ACT o el RGPD no han sido atendidos adecuadamente, tiene derecho a presentar una reclamación ante las autoridades competentes:

Agencia Española de Protección de Datos (AEPD)

Dirección: Calle Jorge Juan, 6, 28001 Madrid, España

Web: www.aepd.es

Teléfono: 901 100 099 / 912 663 517

La AEPD es la autoridad de control competente en materia de protección de datos personales en España, incluyendo el procesamiento por sistemas de IA.

Autoridades Europeas del AI ACT

A partir de la entrada en vigor del AI ACT (2 agosto 2026), se establecerán autoridades competentes específicas para su supervisión. Actualizaremos esta información cuando las autoridades españolas sean designadas oficialmente.

Tiempo de Respuesta

Nos comprometemos a responder sus consultas en los siguientes plazos:

  • -Acuse de recibo: 48 horas laborables
  • -Consultas generales: 7 días laborables
  • -Consultas sobre IA y AI ACT: 15 días naturales
  • -Ejercicio de derechos ARCO: 30 días naturales (máximo legal)
  • -Reclamaciones complejas: 30 días naturales, prorrogables otros 30 días si la complejidad lo requiere

Compromiso de Atención

UTILIA se compromete a atender todas las consultas, dudas y reclamaciones de manera profesional, transparente y dentro de los plazos establecidos. Su confianza es fundamental para nosotros, y estamos a su disposición para aclarar cualquier aspecto relacionado con el uso de inteligencia artificial en AlignIA y nuestro cumplimiento del AI ACT y el RGPD.

Documento Actualizado

Este documento de Cumplimiento del AI ACT fue actualizado por última vez el 16 de octubre de 2025 y está vigente hasta nueva actualización. Para consultar la versión más reciente de este documento, visite https://alignia.utilia.ai/ai-act

Nota Legal: Este documento está redactado en cumplimiento anticipado del Reglamento (UE) 2024/1689 sobre Inteligencia Artificial (AI ACT), que entrará en pleno vigor el 2 de agosto de 2026. UTILIA se compromete a mantener el cumplimiento de todas las obligaciones establecidas en el reglamento y a actualizar este documento conforme evolucionen nuestros sistemas de IA y la normativa aplicable. Para consultas sobre el uso de IA en AlignIA, contacte con compliance@utilia.ai.

Coordinación normativa: Este documento debe leerse conjuntamente con nuestra Política de Privacidad, Cumplimiento GDPR, Términos de Servicio para una comprensión completa de nuestras obligaciones legales y sus derechos.

Cumplimiento del AI ACT - AlignIA | AlignIA