Por Rose Weinschenk, investigadora asociada de Uptime Institute
Muchos empleados se acercan a los sistemas basados en IA en el lugar de trabajo con un cierto nivel de desconfianza. Esta falta de confianza puede retrasar la implementación de nuevas herramientas y sistemas, distanciar al personal y reducir la productividad. Los administradores de centros de datos pueden evitar este resultado si comprenden los factores que generan desconfianza en la IA y diseñan una estrategia para minimizarlos.
La confianza interpersonal percibida es un factor clave para la productividad de los seres humanos, pero rara vez se habla de ella en el contexto de un centro de datos. Investigadores de la Universidad de Cambridge en el Reino Unido han descubierto que la confianza interpersonal y la confianza organizacional tienen una fuerte correlación con la productividad del personal. En términos de asignación de recursos, la falta de confianza requiere que los empleados inviertan tiempo y esfuerzo en organizar mecanismos de seguridad para evitar los riesgos percibidos. Esto desvía la atención de la tarea en cuestión y da como resultado una menor producción.
En el sector de los centros de datos, la confianza en la toma de decisiones basada en IA ha disminuido significativamente en los últimos tres años. En la encuesta global de 2024 de Uptime Institute a administradores de centros de datos, el 42 por ciento de los operadores afirmó que no confiaría en un sistema de IA adecuadamente capacitado para tomar decisiones operativas en el centro de datos, lo que supone un aumento de 18 puntos porcentuales desde 2022 (Figura 1). Si continúa esta disminución de la confianza, será más difícil introducir herramientas basadas en IA.
Los gerentes que deseen aprovechar las ganancias de productividad asociadas con la IA tal vez necesiten crear condiciones específicas para generar confianza percibida entre los empleados y las herramientas basadas en IA.
Equilibrar la confianza y las cargas cognitivas
El ciclo de construcción de confianza requiere un nivel de incertidumbre. En el modelo de confianza de Mayer, Davis y Shoormen, esta incertidumbre se produce cuando a una persona se le presenta la opción de transferir la autonomía de toma de decisiones a otra parte, que, en el centro de datos, podría ser un sistema de control basado en Inteligencia Artificial. Las personas evalúan las características percibidas de la otra parte en relación con el riesgo, para determinar si pueden renunciar al control de la toma de decisiones. Si esto conduce a resultados deseables, las personas ganan confianza y perciben menos riesgos en el futuro.
Se puede fomentar la confianza en los sistemas basados en IA mediante el uso de técnicas de implementación específicas. En la encuesta sobre inteligencia artificial y software de 2024 del Uptime Institute, casi la mitad de los operadores que han implementado capacidades de IA informan que el mantenimiento predictivo está impulsando su uso de IA.
Investigadores de la Universidad Tecnológica de Sydney (Australia) y de la Universidad de Sydney probaron la interacción humana con sistemas de mantenimiento predictivo basados en IA. Los participantes tuvieron que decidir cómo gestionar una situación en la que se había roto una tubería de agua bajo diferentes niveles de incertidumbre y carga cognitiva (la carga cognitiva es la cantidad de recursos de memoria de trabajo utilizados). Para todos los participantes, la confianza en las sugerencias generadas automáticamente fue significativamente mayor en condiciones de carga cognitiva baja. Los sistemas de IA que comunicaban las probabilidades de riesgo de la decisión evitaron que la confianza disminuyera, incluso cuando la carga cognitiva aumentaba.
Sin que se mostraran las probabilidades de riesgo de las decisiones, los empleados dedicaban más recursos cognitivos a descifrar la ambigüedad, lo que dejaba menos espacio en su memoria de trabajo para la resolución de problemas. La interpretabilidad de los resultados de los sistemas basados en IA genera confianza: permite a los usuarios comprender el contexto de sugerencias, alertas y predicciones específicas. Si un usuario no puede comprender cómo un sistema de mantenimiento predictivo llegó a una determinada conclusión, perderá la confianza. En esta situación, la productividad se estancará, ya que los trabajadores dedican recursos cognitivos a intentar volver sobre los pasos que dio el sistema.
Dinámica de equipo
En algunos casos, el personal que trabaja con sistemas de IA los personifica y los trata como compañeros de trabajo en lugar de como herramientas. De manera similar a la dinámica de los grupos sociales humanos y al sesgo negativo que se siente hacia quienes están fuera del grupo (dinámica de “exogrupo”), el personal puede desconfiar de estos sistemas de IA.
Los sistemas de IA pueden generar ansiedad relacionada con la seguridad laboral y pueden desencadenar el temor a ser reemplazado, aunque este es un factor menos importante en la industria de los centros de datos, donde el personal escasea y no corre un alto riesgo de perder su empleo. No obstante, los investigadores del Instituto de Ciencias de la Gestión de Pakistán descubrieron que la adopción de IA en general está vinculada con la inseguridad laboral cognitiva, que amenaza la confianza percibida de los trabajadores en una organización.
La introducción de herramientas basadas en IA en un centro de datos también puede provocar una pérdida del estatus de expertos para algunos empleados de alto nivel, quienes podrían ver estas herramientas como una amenaza a su identidad.
Soluciones prácticas
Aunque existen muchos obstáculos para introducir herramientas basadas en IA en un equipo humano, las soluciones para mitigarlos suelen ser intuitivas y psicológicas, más que tecnológicas. Los gerentes de equipos de centros de datos pueden mejorar la confianza en la tecnología de IA mediante las siguientes opciones:
- Elegir herramientas de IA que muestren el riesgo de forma transparente: mostrando una métrica para la precisión de la predicción estimada.
- Elegir herramientas de IA que enfaticen la interpretabilidad: esto podría incluir descripciones de lógica de ramificación, datos estadísticos, métricas u otros contextos para sugerencias o decisiones basadas en IA.
- Combatir el sesgo hacia el exogrupo: organizar que líderes de equipo de confianza del “dentro del grupo” muestren las herramientas de IA al resto del grupo (en lugar de los proveedores de herramientas o personas desconocidas para el equipo).
- Implementar capacitación durante todo el proceso de transición a la IA: muchos empleados experimentarán inseguridad laboral cognitiva a pesar de que se les haya dicho que sus puestos están asegurados. Invertir en capacitación e implementarla durante el proceso de transición a la IA permite que el personal tenga una sensación de control sobre su capacidad para afectar la situación, minimizar la brecha entre las habilidades conocidas y las necesarias y evitar la sensación de perder el estatus de experto.
Muchas de las soluciones descritas anteriormente se basan en contratos sociales, es decir, acuerdos transaccionales y relacionales entre empleados y una organización. La psicóloga estadounidense Denise Rousseau (profesora de la Universidad Carnegie Mellon, Pittsburgh, Pensilvania) describe la confianza relacional como la expectativa de que una empresa retribuirá las inversiones de un empleado mediante crecimiento, beneficios y seguridad laboral, todos factores que van más allá de la recompensa de un salario.
Cuando se rompe este contrato relacional, el personal generalmente cambia su comportamiento y deja de priorizar los resultados a largo plazo de la empresa en favor de ganancias personales a corto plazo.
Los líderes de equipos de centros de datos pueden utilizar tecnologías de IA para fortalecer o romper contratos relacionales en sus organizaciones. Aquellos que tengan en cuenta los factores descritos anteriormente tendrán más éxito a la hora de mantener un equipo eficaz.