Inteligencia Artificial en la Selección de Personal: Oportunidades y Desafíos Éticos
En los últimos años, el uso de la inteligencia artificial (IA) en la gestión del talento humano se ha convertido en una tendencia creciente, especialmente en los procesos de reclutamiento y selección. La elección adecuada del capital humano es una de las decisiones más críticas para cualquier organización, ya que de ella dependen la productividad, la innovación y la cohesión de los equipos de trabajo. Sin embargo, este proceso suele enfrentarse a múltiples retos: desde el gran volumen de solicitudes que reciben las empresas, hasta la dificultad de evaluar con objetividad las competencias blandas y técnicas de los candidatos, evitando sesgos y errores humanos.
En este contexto, Chamorro-Premuzic, Winsborough, Sherman y Hogan (2016) señalan que la automatización aplicada a la evaluación de candidatos promete no solo rapidez, sino también una mayor objetividad en comparación con los métodos tradicionales. No obstante, esta incorporación plantea interrogantes relacionados con los sesgos algorítmicos, la transparencia y la responsabilidad en decisiones que afectan la trayectoria laboral de las personas.
Eficiencia, agilidad y objetividad
De acuerdo con Upadhyay y Khandelwal (2018), uno de los beneficios más notables de la IA es su capacidad para procesar volúmenes masivos de información en pocos segundos. Esto permite a las organizaciones filtrar miles de solicitudes y concentrarse en los perfiles más adecuados, lo que se traduce en una reducción significativa de tiempo y costos en los procesos de contratación. Gracias a esta agilidad, los equipos de recursos humanos pueden enfocarse en fases estratégicas como entrevistas personalizadas y evaluaciones profundas.
Además, la posibilidad de minimizar la subjetividad en la selección es otro de los argumentos más sólidos a favor de la IA. Como advierte Dastin (2018), los algoritmos bien diseñados pueden estandarizar criterios y reducir la influencia de prejuicios conscientes o inconscientes en los reclutadores. No obstante, esta ventaja depende de la calidad de los datos con que se entrenen los modelos, ya que, si los registros históricos contienen sesgos, los sistemas tienden a replicarlos e incluso amplificarlos.
Riesgos éticos y responsabilidad organizacional
La literatura reciente ha puesto de relieve los riesgos asociados con los sesgos algorítmicos. Raghavan, Barocas, Kleinberg y Levy (2020) documentan cómo los sistemas de reclutamiento automatizados han reproducido discriminaciones por género, edad o procedencia académica, afectando particularmente a mujeres en áreas de ingeniería. Estos hallazgos revelan la necesidad de establecer mecanismos de auditoría y supervisión que garanticen la equidad en la selección de personal.
Otro de los desafíos destacados por Bogen y Rieke (2018) es la falta de transparencia en los criterios utilizados por los algoritmos. Muchos candidatos desconocen cómo o por qué fueron descartados, lo que genera desconfianza y posibles conflictos legales. Frente a ello, las organizaciones tienen la obligación de asegurar trazabilidad en las decisiones, comunicar con claridad sus métodos de evaluación y adoptar políticas que refuercen la ética en el uso de la IA aplicada a recursos humanos.
Hacia una integración responsable de la IA en recursos humanos
Frente a los retos actuales que la alta competitividad lanza a la selección del talento humano, la solución no está en rechazar el uso de la IA bajo la falsa suposición de que ello supondría la despersonalización de la valoración y selección de los mejores candidatos. Por el contrario, la IA puede potenciar los rendimientos que otorgan los modelos de selección cuando se encuentra debidamente articulada con marcos normativos que guíen su implementación. Esto implica concebir los algoritmos como herramientas de apoyo que complementen, mas no sustituyan, el juicio humano. Solo de esta manera se podrá garantizar que la eficiencia tecnológica se combine con la sensibilidad y el criterio necesarios para respetar la dignidad de los candidatos.
Referencias
- Bogen, M., & Rieke, A. (2018). Help wanted: An examination of hiring algorithms, equity, and bias. Upturn.
- Chamorro-Premuzic, T., Winsborough, D., Sherman, R. A., & Hogan, R. (2016). New talent signals: Shiny new objects or a brave new world? Industrial and Organizational Psychology, 9(3), 621–640. https://doi.org/10.1017/iop.2016.6
- Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com
- Meijerink, J., Bondarouk, T., & Lepak, D. (2021). When HRM meets automation: Transforming work and designing sustainable workplaces. International Journal of Human Resource Management, 32(12), 2549–2562. https://doi.org/10.1080/09585192.2021.1930384
- Raghavan, M., Barocas, S., Kleinberg, J., & Levy, K. (2020). Mitigating bias in algorithmic hiring: Evaluating claims and practices. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, 469–481. https://doi.org/10.1145/3351095.3372828
- Upadhyay, A. K., & Khandelwal, K. (2018). Applying artificial intelligence: Implications for recruitment. Strategic HR Review, 17(5), 255–258. https://doi.org/10.1108/SHR-07-2018-0051

