Claves de un uso responsable de la IA en el entorno laboral
La inteligencia artificial ya forma parte de la gestión de personas. Se usa para seleccionar candidatos, medir rendimientos, asignar tareas o controlar horarios. Pero su avance plantea una cuestión incómoda: ¿cuándo una herramienta de eficiencia se convierte en un instrumento de vigilancia?
En los últimos años, el marco normativo ha empezado a responder. En España, el artículo 64.4.d) del Estatuto de los Trabajadores reconoce el derecho de los representantes de las personas trabajadoras a ser informados
de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que puedan incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.
En aplicación de este precepto, la vicepresidenta segunda y ministra de Trabajo, Yolanda Díaz, ha anunciado una campaña de ninspección dirigida a las grandes plataformas tecnológicas para comprobar cómo emplean los algoritmos en la gestión laboral.
En paralelo, el Reglamento General de Protección de Datos (RGPD) impone principios de
minimización, transparencia, proporcionalidad y supervisión humana en las decisiones automatizadas que tengan efectos jurídicos o significativos sobre las personas. Y el nuevo Reglamento Europeo de Inteligencia Artificial (IA Act) refuerza esta línea al calificar como sistemas de alto riesgo aquellos que intervienen en procesos de contratación, evaluación o despido, imponiendo obligaciones reforzadas de documentación, explicabilidad y control humano.
La conclusión es nítida: la normativa no prohíbe la IA en recursos humanos, pero sí exige gobernarla con rigor y trazabilidad.
Dos planos de cumplimiento: quienes desarrollan y quienes utilizan IA
Las obligaciones varían según el rol que tenga cada uno. Los desarrolladores o comercializadores de sistemas de IA destinados a la gestión de personas deben
demostrar el cumplimiento de los requisitos de transparencia, explicabilidad y respeto al RGPD y al IA Act. Esto implica documentar la lógica de los algoritmos, realizar evaluaciones de riesgo, mitigar sesgos y garantizar la posibilidad real de intervención humana.
En definitiva, incorporar el cumplimiento desde el diseño.
Las empresas que adquieren o utilizan soluciones IA no pueden limitarse a confiar ciegamente en su proveedor. Deben conocer cómo funciona el sistema, qué datos utiliza y para qué decisiones se aplica. La diligencia mínima pasa por revisar los contratos, exigir evidencias de cumplimiento, incorporar cláusulas de responsabilidad y realizar auditorías periódicas. El principio de responsabilidad proactiva del RGPD obliga también aquí: usar IA de terceros no exime de responder por sus efectos.
Y si además cuentan con representación legal de los trabajadores, la obligación de transparencia será doble: nfrente a la autoridad y frente al comité de empresa, como ya empieza a verse en las primeras actuaciones inspectoras anunciadas por el Ministerio de Trabajo.
Riesgos y oportunidades para las empresas tecnológicas
El riesgo no radica en usar algoritmos, sino en no entender su alcance. Muchas compañías integran soluciones de IA sin analizar su impacto jurídico o ético, lo que puede traducirse en decisiones opacas, discriminatorias o desproporcionadas. También en conflictos con empleados, sanciones administrativas o daños reputacionales.
Un algoritmo de selección que descarte candidatos por edad o localización, o un sistema que mida la productividad según el tiempo frente a pantalla, puede vulnerar la igualdad, la intimidad o incluso el derecho a la desconexión… máxime si no hay un verdadero control por parte de un humano (uno inteligente, si se me permite el guiño).
Por el contrario, una gestión algorítmica bien diseñada puede convertirse en una ventaja competitiva real.
Las empresas que establezcan políticas claras sobre el uso de la IA demostrarán transparencia, responsabilidad y capacidad de anticiparse a las exigencias regulatorias. En un mercado donde la confianza tecnológica es un valor escaso, la gobernanza de la inteligencia artificial y la protección de datos será un signo de madurez corporativa.
Claves para una gestión responsable
En nuestra opinión, el cumplimiento se construye sobre tres ejes esenciales:
- Inventario y auditoría: identificar qué sistemas algorítmicos se utilizan, qué datos tratan y con qué finalidad. Este mapa permite conocer los riesgos y aplicar medidas correctoras. Tanto desarrolladores como usuarios deben mantenerlo actualizado y revisarlo periódicamente.
- Gobernanza: definir políticas internas sobre el uso de IA con criterios de transparencia, revisión y supervisión humana. La gobernanza empieza en el diseño, pero debe extenderse a la implantación y al uso, en coherencia con el RGPD y con otras normas sectoriales.
- Formación y cultura: coordinar a RRHH, tecnología y cumplimiento, pero también formar a quienes emplean la tecnología y a quienes están sujetos a ella. Sin conocimiento, la IA deja de ser una herramienta y se convierte en un riesgo.
Mirando hacia adelante
El reto no es solo técnico ni jurídico, sino cultural. La IA puede hacer el trabajo más justo y eficiente, pero solo si se usa con criterio y respeto a los derechos fundamentales.
La supervisión algorítmica ha pasado de ser una recomendación a convertirse en una prioridad en la que la gobernanza de la IA nunca más será opcional.
Las empresas que lo entiendan antes serán las que mejor capitalicen la confianza.
Explora más artículos en nuestro Blog o síguenos en LinkedIn para estar al tanto de las últimas novedades del sector.