IA Act en Europa
La inteligencia artificial ha dejado de ser un concepto abstracto o futurista para convertirse en una presencia cotidiana en la Universidad. En 2026, convivimos con sistemas que recomiendan lecturas, ayudan a redactar textos, clasifican información, detectan patrones en datos de investigación o automatizan respuestas en servicios administrativos. Muchas de estas herramientas funcionan de manera casi invisible, integradas en plataformas que usamos a diario en aulas, despachos, bibliotecas o desde casa. Precisamente por esa normalidad creciente, la llegada del IA Act en España supone un punto de inflexión que merece una reflexión pausada y práctica.
Este artículo está pensado para la comunidad universitaria de Comillas, para quienes utilizan sistemas con inteligencia artificial sin necesidad de diseñarlos o programarlos. El objetivo no es explicar la norma desde un punto de vista jurídico, sino entender qué cambia en la práctica, cómo afecta a nuestro día a día y qué papel tenemos cada uno para que el uso de la IA sea responsable, seguro y alineado con los valores académicos.
Por qué la Unión Europea regula la inteligencia artificial
La Unión Europea ha optado por un enfoque claro: regular la inteligencia artificial antes de que los problemas se consoliden. A diferencia de otras tecnologías digitales, la IA no solo procesa información, sino que puede influir en decisiones que afectan directamente a las personas. Desde recomendar contenidos hasta priorizar solicitudes, evaluar comportamientos o anticipar resultados, su impacto va más allá de la simple automatización.
El IA Act nace de la constatación de que no todos los usos de la inteligencia artificial son iguales ni conllevan los mismos riesgos. En un entorno universitario, esta distinción es especialmente relevante. No es lo mismo una herramienta que ayuda a resumir textos que un sistema que influye en procesos de evaluación, admisión o seguimiento académico. La regulación busca precisamente establecer un marco común que permita aprovechar la innovación sin poner en riesgo derechos fundamentales como la igualdad, la privacidad o la transparencia.

Un modelo basado en niveles de riesgo
El corazón del IA Act es su enfoque basado en el riesgo. En lugar de imponer las mismas obligaciones a todos los sistemas, la norma clasifica los usos de la inteligencia artificial según el impacto potencial que pueden tener sobre las personas. Este enfoque resulta intuitivo si lo trasladamos a la vida universitaria.
En un extremo se sitúan los usos considerados de riesgo inaceptable, que quedan prohibidos. Se trata de sistemas que manipulan el comportamiento de forma encubierta o que realizan una vigilancia intrusiva incompatible con los derechos fundamentales. Aunque no forman parte de los usos habituales en la Universidad, su prohibición marca claramente los límites éticos y legales.
En el otro extremo encontramos los usos de riesgo mínimo, como asistentes de escritura, herramientas creativas o sistemas de recomendación genéricos. Estos siguen siendo plenamente legales y no requieren obligaciones adicionales, más allá de un uso responsable. Entre ambos extremos se sitúan los usos de riesgo limitado y alto riesgo, que son los que concentran la mayor parte de las exigencias del IA Act.
La transparencia como condición básica de confianza
Uno de los principios más visibles del IA Act es la transparencia. En términos sencillos, las personas tienen derecho a saber cuándo están interactuando con un sistema de inteligencia artificial y no con otra persona. Este principio tiene una traducción muy directa en el entorno universitario.
Si un estudiante interactúa con un chatbot para resolver una duda administrativa, debe quedar claro que se trata de un sistema automatizado. Si una herramienta genera un texto, una recomendación o una respuesta, debe indicarse su naturaleza. Esta información no tiene como objetivo generar desconfianza, sino evitar malentendidos y permitir que cada usuario valore correctamente el alcance de la herramienta.
La transparencia también implica reconocer las limitaciones de la IA. Un sistema puede ser rápido y eficiente, pero no infalible. Saber que estamos ante una herramienta automatizada nos recuerda que siempre es necesario aplicar criterio y, cuando corresponda, solicitar una revisión humana.

Qué se considera IA de alto riesgo en la Universidad
El concepto de sistema de alto riesgo puede generar inquietud, pero conviene entenderlo con calma. No significa que estos sistemas sean peligrosos por definición, sino que su uso puede tener consecuencias relevantes para las personas si no se gestiona adecuadamente.
En el ámbito universitario, podrían considerarse de alto riesgo aquellos sistemas que influyen de manera significativa en decisiones académicas o administrativas. Por ejemplo, herramientas que apoyan procesos de evaluación automatizada, análisis del rendimiento académico con efectos en decisiones importantes, o sistemas que participan en procesos de selección o admisión.
El IA Act no prohíbe estos usos, pero exige garantías claras. Entre ellas, la documentación del funcionamiento del sistema, la calidad de los datos utilizados y la posibilidad de supervisión humana efectiva. En la práctica, esto refuerza un principio muy alineado con la cultura universitaria: ninguna decisión relevante debe depender exclusivamente de un algoritmo.
El papel irrenunciable del control humano
Uno de los mensajes más importantes del IA Act es que la inteligencia artificial no sustituye la responsabilidad humana. La norma introduce el concepto de control humano significativo, que implica que las personas deben poder comprender, supervisar y, si es necesario, corregir el funcionamiento de un sistema de IA.
En el día a día universitario, esto se traduce en prácticas muy concretas. El profesorado sigue siendo responsable de la evaluación, aunque utilice herramientas de apoyo. El personal de administración mantiene la capacidad de revisión y decisión, incluso cuando se automatizan procesos. Y el alumnado conserva el derecho a pedir explicaciones cuando una decisión automatizada le afecta.
Este enfoque no frena la innovación, sino que la hace más robusta. Un sistema supervisado es un sistema más fiable, más justo y más acorde con los valores académicos.

Datos, sesgos y calidad de la información
La inteligencia artificial aprende a partir de datos, y los datos reflejan realidades complejas. El IA Act pone un énfasis especial en la calidad de los datos utilizados, especialmente en sistemas de alto riesgo. Datos incompletos, desactualizados o sesgados pueden generar resultados injustos o poco fiables.
En la Universidad, donde se manejan datos académicos, personales y de investigación, este aspecto es especialmente sensible. Aunque como usuarios no tengamos acceso a los modelos internos, sí debemos ser conscientes de que los resultados de la IA no son verdades absolutas. Son apoyos a la decisión, no sustitutos del análisis crítico.
Esta mirada crítica forma parte de la cultura universitaria. Aplicarla también a la inteligencia artificial es una extensión natural de nuestras competencias académicas.
España en 2026: de la norma a la práctica
En 2026, el IA Act ya no es una norma futura, sino una realidad aplicada en España. Las universidades, como organizaciones complejas y con una fuerte responsabilidad social, están directamente implicadas. Esto se traduce en procesos más claros, mayor documentación y una atención especial al cumplimiento normativo en proyectos que incorporan IA.
Para la comunidad universitaria, el cambio más visible es la normalización de ciertos avisos, procedimientos y controles. Herramientas que antes se usaban de forma informal ahora se integran en un marco más estructurado, con criterios claros de uso y con el apoyo de los canales oficiales del STIC para resolver dudas o comunicar incidencias.
Docencia, investigación y gestión: impactos diferenciados
En docencia, el IA Act invita a reflexionar sobre cómo se utilizan las herramientas generativas, los sistemas de apoyo al aprendizaje o la evaluación automatizada. No se trata de prohibir, sino de integrar estas tecnologías de forma transparente, explicando su papel y sus límites.
En investigación, la regulación no pretende frenar la experimentación, sino asegurar que los resultados y aplicaciones respetan principios básicos cuando se aplican fuera del entorno estrictamente experimental. La ética, la transparencia y la responsabilidad adquieren un peso mayor.
En la gestión universitaria, la IA puede mejorar la eficiencia, pero siempre con garantías. Automatizar no significa desentenderse, sino diseñar procesos más claros, trazables y revisables.
La relación entre IA Act y ciberseguridad
Aunque el IA Act no es una norma de ciberseguridad, ambas dimensiones están estrechamente relacionadas. Un sistema de IA inseguro puede ser manipulado, generar resultados erróneos o exponer información sensible. Por eso, muchas de las buenas prácticas que exige el reglamento se apoyan en principios ya conocidos: control de accesos, gestión de incidentes y formación de los usuarios.
La colaboración con el STIC resulta clave para garantizar que los sistemas de IA utilizados en la Universidad no solo sean legales, sino también seguros y fiables.
Tu papel como miembro de la comunidad universitaria
El IA Act no se dirige únicamente a desarrolladores o responsables institucionales. También interpela a quienes usamos estas herramientas a diario. Ser consciente de cuándo usamos IA, entender sus límites y comunicar usos dudosos son acciones sencillas con un impacto real.
La inteligencia artificial no sustituye al pensamiento crítico. Al contrario, lo exige más que nunca. En un entorno universitario, esta actitud crítica es una fortaleza que contribuye a proteger a toda la comunidad.
Acciones concretas para aplicar desde hoy
- Identifica qué herramientas de tu entorno académico utilizan inteligencia artificial y con qué finalidad.
- Lee los avisos de transparencia cuando interactúes con sistemas automatizados.
- No tomes decisiones importantes basándote únicamente en resultados generados por IA.
- Solicita revisión humana si una decisión automatizada te afecta de forma relevante.
- Evita introducir datos sensibles en herramientas de IA no autorizadas por la Universidad.
- Cuestiona resultados que parezcan incoherentes o fuera de contexto.
- Comunica cualquier incidencia o uso dudoso a través de los canales oficiales del STIC.
- Mantente al día de las recomendaciones internas sobre el uso responsable de la IA.