Profesionales de RR.HH. plantean el riesgo de implantar el uso de la IA sin los conocimientos adecuados

Recuerdan que la IA es sólo una herramienta y las decisiones «siempre las deben tomar personas»

MADRID, 15 (EUROPA PRESS)

Profesionales de RR.HH. han planteado el riesgo de implantar el uso de la Inteligencia Artificial sin los conocimientos adecuados sobre esta tecnología, durante un ejercicio práctico de «iteración» durante la sesión ‘Vamos a jugar con la IA’, organizada en el campus de la Universidad de Navarra en Madrid con la participación de su Instituto de Ciencia de los Datos e IA (DATAI), partner académico de IA+Igual.

La experta en Data Analytics y miembro del consejo de IA+Igual, Ana Valera, ha planteado una demostración práctica de «iteración» con IA generativa –en este caso, con ChatGPT- para demostrar cómo «la intervención humana es necesaria para poner en contexto lo que entrega» e «identificar posibles sesgos en sus propuestas».

Para ello, ha iniciado un hilo de peticiones a ChatGPT, con el objetivo de simular un proceso de reclutamiento, en el que ha introducido tres currículums para analizar cómo los clasifica la herramienta. Previamente, según ha explicado, había replicado dos CVs idénticos cambiando el nombre: uno pertenecía a un hombre y el otro a una mujer.

Así, tras el proceso de «iteración», la categorización propuesta ha colocado en primer lugar al hombre y en tercer lugar a la mujer, a pesar de tener ambos la misma trayectoria profesional, igual formación e idénticas habilidades. «El uso de los datos puede ayudar a tomar mejores decisiones, más justas y objetivas. Pero no está exento de sesgos», ha asegurado Valera.

En ese contexto, el experto en Fair Learning de DATAI, Alberto García Galindo, con un ejercicio práctico de introducción visual al Machine Learning, ha alertado sobre la tentación de antropomorfizar la IA ya que «si bien es una tecnología que intenta replicar el pensamiento humano, no es ella la que toma las decisiones, sirve de apoyo a quien tiene que tomarlas».

Para García, el verdadero reto de la aplicación de la IA específicamente en el campo de la gestión del talento no es otro que el de construir modelos de aprendizaje automático éticos basados en cuatro pilares: robustez, equidad, transparencia y confiabilidad. «Esto se traduce en validar los datos que alimentan el algoritmo para que no presente sesgos que deriven en algún tipo de discriminación por género, raza, etc. y que sea posible auditarlo para conocer cómo se toman las decisiones», ha señalado.

En este sentido, el experto en LLM y miembro del Consejo Asesor de IA+Igual, Ambrosio Nguema, ha desarrollado un algoritmo en Phyton específicamente para la sesión en el que ha volcado una base de datos de currículos con el objetivo de mostrar el ‘back office’ de los modelos que sustentan la IA.

A través de la combinación de variables que deben determinar el gestor de personas, ha permitido evidenciar no sólo cómo puede facilitar la automatización del proceso sino, sobre todo, cuál es el espacio que evidencia el valor de RR. HH en la programación y aprendizaje de los modelos.

EQUIPOS MULTIDISCIPLINARES Y MULTIVERSOS PARA MINIMIZAR SESGOS

Tras los ejemplos prácticos, se ha abierto un debate en el que el socio de IN2 y experto en auditoría algorítmica, además de promotor de IA+Igual, Félix Villar, ha clarificado que, aunque estos modelos pueden mejorar la productividad, «las empresas se enfrentan a un dilema».

«Es difícil que una organización pueda realizar un desarrollo propio y, lo habitual, es contratar un proveedor que quizá ha entrenado el modelo del algoritmo con 200.000 datos de un lugar geográfico concreto, aunque lo use para empresas de todo el mundo», ha expuesto Villar.

En esa misma línea, la líder del proyecto IA+Igual y experta en innovación social, Marisa Cruzado, ha señalado que Recursos Humanos se enfrenta al reto de entender la inteligencia artificial. Para Cruzado, si las empresas quieren «liderar el proceso de transformación que ya se está produciendo», los responsables de RR.HH deben convertir las herramientas de IA en un «copiloto necesario» que les facilite la información requerida para su toma de decisiones, de una manera «rápida, eficiente y confiable».

Por ello, desde IA+Igual han comenzado a testear un modelo de auditoría algorítmica para «sentar las bases de un futuro modelo de certificación» y alcanzar un futuro «diverso» en el que, según ha indicado Cruzado, la tecnología dé soporte para conseguir los objetivos de equidad e igualdad de oportunidades en el ámbito laboral.

«Cuando decimos que los algoritmos alucinan en realidad hemos de convencernos de que quienes alucinamos somos nosotros», ha destacado por su parte la experta en gestión de RR.HH, Maite Sáenz, que considera que los sesgos inconscientes comprometen los principios de «robustez, equidad, transparencia y confiabilidad» de los que ha hablado García.

Se trata de «actos reflejos propios razonamiento humano» que se trasladan a la inteligencia artificial con la misma «inconsciencia» con la que los seres humanos viven su vida cotidiana. Como ha apuntado Sáenz, el objetivo de IA+Igual es auditar algoritmos para garantizar la equidad en la diversidad.

El cierre del evento ha corrido a cargo del líder del equipo de DATAI y experto en Innovación tecnológica, Iván Cordón, que ha puesto sobre la mesa la necesidad de que sean «equipos multidisciplinares y multidiversos quienes pongan coto a los sesgos que todos tienen y que la IA reproduce». Ha concluido dando una vuelta más al hilo del evento, al afirmar que «la tecnología es una herramienta y no sustituirá al profesional de Recursos Humanos que aprenda a utilizarla, pero sí sustituirá a quienes no sepan hacerlo».