top of page
Image by Philipp Katzenberger

Qubit Legal

Bienvenidos a nuestro Blog, Qubit Legal, donde compartimos artículos cortos y prácticos sobre los temas más relevantes y vigentes en Derecho y Tecnología. 

Search

Riesgos Legales del Uso de IA para Reclutamiento


En los últimos meses, cada vez más empresas recurren a herramientas de inteligencia artificial (IA) para optimizar sus procesos de reclutamiento. La tentación es mucha y, para algunos, justificada. Estas soluciones ahorran tiempo, automatizan el proceso, disminuyen costos, mejoran la calidad de las contrataciones y, hasta cierto punto, eliminan la subjetividad en la contratación.  Sin embargo, su implementación no está exenta de importantes riesgos legales y éticos. En este artículo, exploraremos los cuidados que deben tener las empresas al utilizar IA en el reclutamiento, así como las implicaciones para los proveedores de estos sistemas.


Una IA entrevistando a un candidato humano para un puesto

Riesgos Legales

 

            1.         Discriminación Algorítmica:

La IA puede perpetuar sesgos existentes en los datos de entrenamiento, resultando en prácticas de contratación discriminatorias. Esto no solo puede llevar a conflictos legales, sino también a dañar la reputación de la empresa.


Ejemplo: Si un sistema de IA está entrenado con datos históricos que reflejan una tendencia a contratar mayoritariamente a hombres, puede replicar este sesgo y discriminar a mujeres candidatas. Esto infringiría el Código de Trabajo de Costa Rica, en su artículo 404.


Este tipo de sesgo algorítmico no es siempre evidente, ni siquiera para los propios desarrolladores del sistema de IA. Por lo tanto, es crucial una adecuada gobernanza y gestión de riesgos de la IA al desarrollar, contratar o implementar estas soluciones.


            2.         Protección de Datos Personales:

La recolección y el procesamiento de datos personales por sistemas de IA deben cumplir con las normativas de protección de datos, como el GDPR en Europa (cuando aplique) y la Ley de Protección de la Persona frente al Tratamiento de sus Datos Personales en Costa Rica (Ley 8968), entre otras.


En ese sentido, las empresas deben asegurar que los datos utilizados para entrenar los modelos de IA han sido obtenidos con el consentimiento informado de los candidatos y que se toman medidas para proteger estos datos contra accesos no autorizados.


En el Estado de Nueva York, se adoptó recientemente una ley que exige a las empresas que utilicen IA en el proceso de reclutamiento, llevar a cabo una auditoría de la herramienta para excluir la presencia de sesgos discriminatorios, entre otros requisitos regulatorios para su uso.


            3.         Transparencia y Explicabilidad:

Las decisiones automatizadas o basadas en IA, deben ser explicables y transparentes. Los candidatos tienen el derecho de saber cómo se toman las decisiones que les afectan y de conocer que durante el proceso, su aplicación será evaluada a través de herramientas de IA.


Incluso, en la Unión Europea, las personas tienen derecho a: 1) obtener una explicación de las razones por las que su aplicación fue descartada por la IA; 2) apelar esa decisión automatizada y 3) exigir supervisión de un ser humano. La legislación de Nueva York antes mencionada también exige a las empresas que revelen a los candidatos el uso de IA en el proceso de reclutamiento y las consecuencias de ese uso.





Consideraciones Éticas


            1.         Equidad:

Las herramientas de IA deben ser diseñadas para promover la equidad y minimizar los sesgos. Esto requiere un enfoque consciente en el desarrollo y entrenamiento de los modelos. Algunas buenas prácticas son: implementar revisiones periódicas y auditorías de los sistemas de IA para identificar y corregir posibles sesgos.


            2.         Responsabilidad:

Las empresas deben ser responsables de las decisiones tomadas por sus sistemas de IA. Esto incluye tener políticas claras sobre el uso de la IA y asegurarse de que los encargados de los Departamentos de Recursos Humanos estén capacitados para supervisar y gestionar estos sistemas. Una buena práctica es designar a un oficial de ética en IA, ya sea interno o externo, que supervise el uso de estas tecnologías en la empresa.


            3.         Impacto Social:

Considerar el impacto social de las herramientas de IA en la fuerza laboral y en la sociedad en general es vital. La IA no debe ser una caja negra; su funcionamiento debe ser comprensible y supervisable. Se recomienda una adecuada gestión de riesgos de IA que evalúe cómo las decisiones de la IA afectan a diferentes grupos demográficos y tomar medidas para mitigar efectos negativos.


Conclusión


La implementación de IA en el reclutamiento puede traer grandes beneficios, pero también conlleva riesgos legales significativos si no se maneja adecuadamente. Las empresas deben estar conscientes de las implicaciones legales y éticas y tomar medidas proactivas para mitigar estos riesgos. No arriesgue la reputación de su empresa ni enfrente posibles sanciones legales. En Datalex, ofrecemos servicios de asesoría legal especializados en el uso ético y legal de la inteligencia artificial. Contáctenos hoy para asegurar que su empresa cumpla con todas las normativas y mantenga prácticas de contratación justas y transparentes.


0 comments

Comments


bottom of page