Según un informe de la consultora Gartner, más del 40% de las grandes empresas ya utiliza algún sistema de Inteligencia Artificial para filtrar currículums, analizar entrevistas o predecir el rendimiento de los postulantes. En teoría, estos algoritmos prometen reducir la carga operativa del área de Recursos Humanos y tomar decisiones más objetivas. ¿Será cierto?
LOS ESTEREOTIPOS NO PERDONAN
Inteligencia Artificial en Recursos Humanos: Los prejuicios de los algoritmos
Algoritmos para evaluar y seleccionar recursos humanos, agilizando procesos y eliminando prejuicios: Cuidado, la Inteligencia Artificial también falla.
"Sí, pero... " (Jimena Ferreño, Directora General de TR Consultores). Veamos.
En teoría, la IA es capaz de reducir ciertos sesgos humanos en los procesos de contratación (edad, género y apariencia física). No debería tener estereotipos o prejuicios personales sino evaluar candidatos según los datos objetivos y parámetros previamente definidos.
Pero para esto hay que trabajar previamente: entrenar al algoritmo para que lo permita.
“Con la ayuda de la IA, los equipos pueden identificar mejor el talento disponible, reducir el tiempo de contratación, personalizar itinerarios de desarrollo profesional y automatizar tareas administrativas, liberando tiempo para que los profesionales de Recursos Humanos se concentren en la cultura organizacional, el liderazgo y el bienestar laboral”, según Ferreño. Pero no es infalibre ni perfecto: la Inteligencia Artificial puede reproducir sesgos si no se entrena correctamente.
La IA funciona a partir de grandes volúmenes de datos que, si reflejan desigualdades del pasado —por ejemplo, menor contratación de mujeres en roles técnicos o exclusión de personas mayores de 50 años—, el algoritmo repetirá esos patrones.
Un ejemplo: Amazon, 2018. La empresa de Jeff Bezos tuvo que desactivar su sistema de reclutamiento basado en IA porque penalizaba sa las mujeres que se postulaban a empleos técnicos. El sistema había sido entrenado con currículums de la última década, un período en el que la mayoría de los candidatos exitosos eran hombres.
El sesgo de género no es el único. Estudios recientes detectaron que algunos sistemas de IA tienen más probabilidades de rechazar a postulantes mayores o a personas con nombres que sugieren determinado origen étnico. “La IA no es neutral. Repite los patrones culturales de quienes la crean y los datos con los que la alimentan”, advierten desde TR Consultores.
En la Unión Europea ya se discute una legislación específica que obliga a las empresas a auditar sus algoritmos y garantizar transparencia en los criterios de selección. En Argentina, en cambio, el debate es incipiente.
Mientras tanto, especialistas recomiendan no delegar por completo las decisiones a los sistemas automáticos y combinar las herramientas tecnológicas con una mirada crítica y humana.
“Si bien la inteligencia artificial aporta eficiencia, velocidad y mejora en los procesos, hay aspectos en la gestión del talento que siguen siendo irremplazables y profundamente humanos. La comprensión emocional, el abordaje de situaciones complejas y el tratamiento sensible de los vínculos en los equipos siguen requiriendo de empatía, criterio y experiencia. El valor humano no sólo complementa, sino que jerarquiza los automatismos tecnológicos”: Laura Aramburu, a cargo de Comunicación y Marketing Digital de TR Consultores.
-------------------------
Más contenido de Urgente24
Cambio de ritmo: El futuro de CFK en manos de la CSJN
Inminente definición sobre Cristina Kirchner: Rosatti convocó a reunión de acuerdo a las 16
Reservas: Luis Caputo ve varias puertas para que entren dólares al BCRA
"Sorpresivo" cierre de Kimberly-Clark: Festejo de Claudio Poggi, y alerta por los 220 despidos










