CLOSED
S&PNASDAQDOWR2KVIXAAPLMSFTNVDAGOOGLMETAAMZNTSLAAVGOGOLDWTIUSDPEN
Yahoo · 60s · delay ~15min
LIVE
BTCETHSOLXRPADABNBDOGE
CoinGecko · 30s
Modelos de lenguaje y sesgos en contrataciones
Papers

Modelos de lenguaje y sesgos en contrataciones

arXiv q-fin15 de mayo de 2026

Segun arXiv q-fin, un estudio amplio sobre modelos de lenguaje revela que estas herramientas no solo reflejan, sino que también transforman patrones de discriminación humanos en contextos de selección laboral. El análisis abarca 27 modelos de inteligencia artificial y 177 profesiones, demostrando que en las decisiones de contratación, las candidatas mujeres y personas de origen negro reciben ventajas frente a hombres y blancos de perfil similar. Al mismo tiempo, las personas con discapacidad enfrentan una desventaja notable. La magnitud de estas diferencias es significativa: equivale a seis meses a un año de formación adicional. Este sesgo se intensifica tras el proceso de alineación, que aumenta las ventajas para mujeres y personas negras en un 325% y 330% respectivamente, mientras agranda la desventaja de personas con discapacidad en un 171%. En comparación con estudios previos sobre interacciones humanas, los modelos de lenguaje invierten el sesgo racial, reducen la penalización por discapacidad y potencian la ventaja de género en un 190%. La alineación modifica también cómo los modelos interpretan indicadores de competencia: amplía el valor de habilidades y experiencia laboral, pero de forma más pronunciada para mujeres y personas de origen negro. De manera contraria, la ausencia de señales de calificación afecta de forma más severa a grupos marginados, especialmente en el caso de personas con discapacidad, lo que explica las disparidades observadas en los resultados post-alineación.

Para el lector peruano, este hallazgo plantea una advertencia crítica. En un contexto donde el mercado laboral busca modernizar sus procesos de selección, los modelos de inteligencia artificial pueden estar introduciendo sesgos que, aunque no son visibles en el día a día, afectan profundamente a segmentos vulnerables. En Perú, donde la representación de mujeres y personas de comunidades afrodescendientes en empleos técnicos y gerenciales sigue siendo limitada, el uso de herramientas automatizadas sin vigilancia adecuada podría perpetuar desigualdades estructurales. Aunque la tecnología busca optimizar decisiones, su diseño y entrenamiento deben ser evaluados con rigor para evitar que amplifique prejuicios históricos. Las empresas que implementan estas tecnologías deben contar con mecanismos de auditoría y transparencia que permitan detectar y corregir sesgos en tiempo real. La responsabilidad no solo recae en los desarrolladores, sino también en quienes deciden integrar estas herramientas en sus procesos. El acceso equitativo a oportunidades laborales requiere no solo innovación, sino también una vigilancia ética y una gestión cuidadosa de los datos que alimentan los modelos.

Modelos de lenguaje y sesgos en contrataciones | Reditua