Blogs

25 agosto 2025

Compartir en

Transformando la cultura laboral con una IA responsable y centrada en las personas

Para cualquier empresa con visión de futuro, una estrategia responsable en materia de inteligencia artificial no consiste solo en acelerar y optimizar las operaciones. Se trata de una oportunidad estratégica para profundizar y transformar la cultura empresarial de cara a una nueva era.

El mundo laboral está cambiando más rápido que nunca. Una investigación realizada por Microsoft ha revelado que el 39 % de las habilidades actuales de los trabajadores se transformarán o quedarán obsoletas para 2030.  Aunque esto plantea preguntas comprensibles sobre la seguridad laboral, esta realidad supone una oportunidad histórica para que las empresas impulsen un cambio positivo. En lugar de centrarnos en lo que la IA podría sustituir, podemos crear conjuntamente un futuro en el que se reconozcan y potencien las fortalezas humanas para lograr un mayor éxito personal y empresarial.

Compañeros inteligentes

Es evidente que la IA hace algunas cosas tan bien como los humanos, y a veces incluso mejor o más rápido. Al eliminar el «ruido» de las tareas rutinarias, la IA nos libera para realizar trabajos más satisfactorios que suelen requerir cualidades exclusivamente humanas, como la creatividad, la compasión y las respuestas emocionales matizadas. La IA también abre más espacio para que las personas profundicen en su pensamiento crítico, la comunicación y la colaboración.

Es más, la llegada de la GenAI se ha convertido en una fantástica oportunidad para democratizar la innovación al involucrar a personas ajenas a la tecnología y con diferentes perspectivas en la transformación de los negocios. En Konecta, una de nuestras medidas de éxito es el número de casos de uso efectivo de la IA concebidos por personas ajenas a nuestros equipos centrales de IA.

Si bien el uso de la IA para transformar los procesos empresariales es esencial, su verdadero poder se libera cuando vamos más allá de la eficiencia para amplificar nuestro valor individual y colectivo.

En este contexto, optimizar la IA consiste en crear un entorno híbrido equilibrado que combine la IA y la inteligencia humana, con empleados apoyados por su IA como un compañero inteligente. Esto va mucho más allá de la simple optimización de tareas y crea una asociación entre humanos y máquinas que fomenta el crecimiento profesional.

Enriquecer y acelerar el desarrollo personal.

Desde esta perspectiva, una capacidad de GenAI es que permite una hiperpersonalización que sitúa a los empleados en el centro de su propio proceso de desarrollo personal. Esto puede ser tan sencillo como una formación personalizada oportuna, o tan transformador como ayudar a un empleado a descubrir talentos latentes o explorar un futuro que quizá nunca hubiera considerado.

Las ventajas de considerar a cada persona como única son claras y cuantificables. Cuando se centran en la personalización, las herramientas basadas en la IA han demostrado reducir de forma sistemática el tiempo necesario para la formación en al menos un 20 %, mientras que los empleados declaran niveles más altos de satisfacción y mayor confianza antes del «primer día», todo ello junto con una mejora constante de las métricas de calidad y adherencia.

Esto exige un uso responsable de las tecnologías, tratando la IA no como un crítico del rendimiento, sino como un copiloto centrado en el crecimiento profesional de cada individuo. Los conocimientos basados en la IA deben enmarcarse como herramientas de desarrollo para el coaching y la adquisición de habilidades, regidas por protocolos estrictos que las separen de las métricas formales de rendimiento.

Responder a los retos éticos: IA responsable

Estos ejemplos de la emergente colaboración entre las personas y la IA muestran grandes oportunidades, pero también plantean importantes cuestiones éticas.

No basta con abordar el «uso previsto» de las soluciones. Por ejemplo, un pequeño cambio en una indicación utilizada para analizar una llamada de un cliente podría extraer información emocional sin una justificación clara, convirtiendo una solución sencilla en un caso de uso de la IA poco ético o no conforme.

Por lo tanto, es fundamental no solo especificar quién es responsable de los resultados de la IA, sino también diseñar y aplicar protocolos operativos estrictos que eviten el uso indebido, los errores y los sesgos. Estos principios son la base de la IA responsable, un ámbito especializado cada vez más reconocido como vital para las empresas. De hecho, según una encuesta de MIT Technology Review de 2025, el 87 % de los directivos considera que la IA responsable es importante y el 76 % la ve como una prioridad competitiva. 

Sin embargo, la misma investigación revela que solo el 15 % se siente muy preparado para adoptar prácticas eficaces de IA responsable. Esta brecha entre la concienciación y la preparación pone de relieve la dificultad de esta labor y refuerza la importancia de contar con barreras de protección y marcos de gobernanza sólidos.

Gobernanza empoderada

Para adoptar un enfoque pragmático, en Konecta abogamos por una estructura de gobernanza empoderada. Por lo general, esto incluye un Comité de Revisión Ética de la IA interfuncional y multivel. Sus responsabilidades incluyen examinar (y vetar) los casos de uso antes de su implementación y garantizar la aplicación adecuada de los protocolos para asegurar que sea un ser humano, y no solo un algoritmo, el responsable de las decisiones y los resultados de la IA.

Supongamos, por ejemplo, que el Comité revisa un nuevo sistema de contratación basado en IA para automatizar la evaluación de currículos. Además del marco de cumplimiento adecuado basado en el riesgo, exigiría, por ejemplo, un protocolo de «human-on-the-loop» para garantizar que un reclutador humano audite de forma sistemática una muestra aleatoria de candidatos con baja puntuación para comprobar si hay «falsos negativos», asegurando así que no se pase por alto injustamente a personas cualificadas.

Desarrollar conocimientos sobre inteligencia artificial

Hacer realidad esta visión de una IA integrada y responsable no es sencillo; también requiere que los trabajadores adquieran nuevas habilidades y que aumentemos los niveles de conocimientos sobre IA en nuestras empresas. La investigación de Microsoft confirma la magnitud de este reto: el 70 % de las organizaciones afirmaron tener dificultades para dotar a sus trabajadores de las habilidades necesarias en materia de IA, y el 62 % de los líderes señalaron que su organización tiene un déficit de conocimientos sobre IA. En el lado positivo, esta investigación también ha concluido que, cuando los empleados se sienten adecuadamente formados en IA, son casi dos veces más propensos (1,9 veces) a afirmar que se dan cuenta del valor de la IA, como la mejora en la toma de decisiones. 

Es fundamental que las organizaciones proporcionen a los empleados recursos suficientes para aprender a trabajar en colaboración productiva con la IA, con fácil acceso a entornos de aprendizaje práctico seguros y sin fricciones. En Konecta, por ejemplo, hemos desarrollado recientemente un «prompt coach» que ayuda a los alumnos a practicar cómo mejorar las indicaciones que introducen en las herramientas de IA. Gracias a él, nuestros compañeros pueden ver cómo pequeños cambios en sus consultas dan lugar a resultados muy diferentes. Se trata de crear una forma fácil y segura para que las personas experimenten y aprendan.

Curiosidad y adaptabilidad

Además de los conocimientos sobre IA, es fundamental inculcar la mentalidad adecuada. Con la aceleración de la transformación de la IA, las empresas deben cultivar una cultura de aprendizaje continuo y adaptabilidad que reduzca el miedo al cambio, al tiempo que desarrollan un pensamiento crítico en torno a la IA.

En una empresa responsable, los resultados generados por la IA nunca deben tratarse como una verdad absoluta, ni deben descartarse simplemente porque provienen de una máquina. Es importante no solo aprovechar al máximo los resultados de la IA, sino también comprender cómo se obtienen. Esto requiere un enfoque equilibrado con una mentalidad empresarial que valore la reflexión, el aprendizaje compartido y, una vez más, el uso responsable de la tecnología.

Liderando el cambio: humildad y humanidad

Por último, el papel de los líderes también está cambiando. Nunca ha sido tan importante dar ejemplo de humildad, transparencia y disposición a experimentar. Es fundamental que los líderes se conviertan en un modelo para el uso ético, humano y responsable de la tecnología.

Como empresas en esta nueva frontera, todos estamos aprendiendo constantemente. Sin embargo, lo que ahora está claro es que una estrategia de IA responsable y centrada en el ser humano puede ayudar a cualquier organización a potenciar una plantilla más resiliente, tanto hoy como mañana.

En última instancia, la pregunta más transformadora que pueden plantearse los líderes no es «¿qué puede hacer la IA por nosotros?», sino «¿cómo puede la IA ayudar a nuestra gente a ser mejor?».

Artículo publicado por

Oscar Verge Arderiu

Chief AI Deployment Officer

Seguir