La ilusión de lo inteligente: algoritmos, selección de personal y decisiones sin conciencia en Paraguay

21 mayo, 2025 | derechos humanos, inteligencia artificial, riesgos de la automatización, sesgos algorítmicos
Imagen ilustrativa extraída de https://www.tarlogic.com/es/blog/riesgos-de-seguridad-de-la-ia/

Por María José Jara Fiorio, Mauro Almada y Angel Barreto.

En los últimos años, la inteligencia artificial ha comenzado a ocupar espacio en distintos rincones del mundo laboral, incluso en algo tan delicado como elegir a quién contratar. Bajo promesas de eficiencia, modernidad y objetividad, algunas empresas ya utilizan tecnologías automatizadas para filtrar currículums, hacer entrevistas preliminares o decidir quién pasa a la siguiente etapa. Suena práctico, ¿no? Pero hay algo que muchas veces se pasa por alto: estas herramientas no piensan, no sienten. No toman decisiones como lo haría una persona.

A pesar del nombre, la inteligencia artificial no es realmente “inteligente”. Como señala la UNESCO (2021), se trata de tecnologías que simulan ciertos comportamientos humanos, pero sin conciencia ni comprensión del contexto: “la protección de los derechos humanos y la dignidad humana debe ser la base de cualquier sistema de IA” (p. 6). Pueden predecir patrones, pero no pueden empatizar. Y eso marca una diferencia enorme, sobre todo cuando lo que está en juego es el acceso a un empleo.

En Paraguay, este debate cobra cada vez más relevancia. Aunque el uso de estas tecnologías aún no está tan extendido como en otros países, algunas grandes empresas y plataformas estatales han comenzado a incorporar herramientas automatizadas en sus procesos. Según el informe EmpleaPY (Sequera & Cuevas, 2024), Paraguay fue uno de los primeros países de la región en explorar sistemas de IA para el empleo, aunque en la práctica, muchas de esas plataformas aún funcionan con automatizaciones básicas y no con inteligencia artificial en sentido estricto.

Automatización en Paraguay: entre lo manual y lo digital

En Paraguay, el uso de inteligencia artificial en los procesos de selección de personal todavía es limitado, pero el panorama empieza a mostrar señales de cambio. Hoy conviven prácticas tradicionales, como entrevistas presenciales y revisión individual de currículums, con herramientas automatizadas que apuntan a agilizar ciertos pasos del proceso. En pequeñas y medianas empresas, la selección sigue siendo mayoritariamente manual, mientras que en algunas multinacionales, consultoras privadas y plataformas especializadas ya se están incorporando tecnologías más avanzadas.

El Ministerio de Trabajo, Empleo y Seguridad Social (MTESS) ha implementado un sistema basado en IA para la vinculación laboral, conforme a lo establecido en la Resolución MTESS N° 701/2024. Además, plataformas como Jagwork ofrecen software de reclutamiento automatizado que facilita la gestión de postulaciones. Diversas consultoras del sector privado utilizan sistemas ATS (Applicant Tracking Systems) y herramientas basadas en IA para gestionar altos volúmenes de aspirantes. Estas herramientas incluyen chatbots para atención inicial, filtrado de currículums mediante palabras clave y evaluaciones psicométricas digitales que ajustan niveles o detectan patrones de respuesta a través de algoritmos.

Esta tendencia fue mencionada también en conversaciones informales con psicólogos y psicólogas organizacionales paraguayos. Según comentaron, si bien muchas empresas aún no utilizan inteligencia artificial de forma sistemática, sí se observa una automatización creciente de ciertas etapas. En algunos casos, los sistemas ya toman decisiones preliminares o filtran postulaciones antes de que intervenga una persona. Y aunque esto pueda parecer un avance, también abre la puerta a nuevos desafíos que vale la pena mirar con atención.

¿Qué riesgos existen al usar sistemas automatizados?

Existen muchas problemáticas que pueden aparecer con el uso de estas tecnologías dadas sus características, desarrolladas en su mayoría en el sector privado. Las mismas pueden surgir cuando los sistemas son entrenados con datos mal clasificados o con poca diversidad, generando exclusiones injustificadas sin posibilidad de apelar la decisión. Y cuando nadie entiende del todo cómo funciona el sistema, mucho menos cómo reclamar, el riesgo se vuelve real.

Uno de los problemas más señalados es el funcionamiento de estos sistemas como “cajas negras”: Es decir, dada la opacidad de estas tecnologías, no es posible comprender cuáles son los procesos por los que los sistemas de IA toman decisiones, ni bajo qué criterios una persona es seleccionada o descartada.

En Paraguay, la situación se vuelve aún más compleja debido a la falta de un marco legal integral, necesaria para dar un marco de protección frente a usos potencialmente riesgosos para los derechos, en distintas dimensiones. Por ejemplo, el hecho de que el país no cuenta con una ley de protección de datos personales, impide establecer responsabilidades claras sobre el tratamiento de los datos, principal insumo de los sistemas automatizados. Esto es señalado específicamente en el informe sobre EmpleaPY (Sequera & Cuevas, 2024), el cual advierte que la plataforma fue implementada sin un marco legal que proteja adecuadamente la privacidad de las personas postulantes.

¿Qué se puede hacer para mitigar los riesgos?

A pesar de estos desafíos, es posible tomar algunos recaudos para implementar sistemas de IA de forma ética y responsable. Al respecto, la Recomendación sobre la Ética de la IA de la UNESCO (2021) insiste en tres principios claves para evitar estas situaciones: transparencia, trazabilidad y supervisión humana. Sin ellos, los riesgos para los derechos laborales aumentan considerablemente. Además, otros principios y valores son el derecho a la intimidad y protección de datos, la sensibilización y educación, así como la Gobernanza y colaboración adaptativas y de múltiples partes interesadas.

La supervisión humana es esencial en todas las etapas del proceso. Las decisiones que afectan a personas no pueden quedar exclusivamente en manos de sistemas automáticos. También es clave que las organizaciones capaciten a sus equipos no solo en el uso técnico de las herramientas, sino en ética digital, derechos laborales y responsabilidad.

Por otro lado, en términos normativos, se vuelve urgente la creación de una ley integral de protección de datos personales, que establezca reglas claras sobre el uso de información sensible, defina mecanismos de supervisión y garantice derechos a quienes participan de estos procesos.

Otro aspecto crucial es promover la diversidad en los equipos que diseñan, validan y ajustan estas tecnologías. Sin una variedad de miradas, es difícil anticipar cómo un sistema puede perjudicar sin intención. Finalmente, hace falta construir culturas organizacionales que valoren el pensamiento crítico y la empatía tanto como la eficiencia. Porque estamos hablando de decisiones que afectan vidas reales, no solo métricas.

Humanidad y tecnología: una convivencia que requiere responsabilidad

La Recomendación sobre la Ética de la IA de la UNESCO (2021) es un documento de referencia para mitigar riesgos en la implementación de IA.A lo largo del análisis, se hizo visible una preocupación compartida por distintos actores: la automatización de procesos tan sensibles como la selección laboral está avanzando más rápido que nuestra capacidad para entenderla, regularla o cuestionarla. Casos como el de EmpleaPY y los testimonios recogidos desde el ámbito organizacional muestran una tendencia clara: se confía cada vez más en sistemas que, aunque parezcan eficientes, no pueden entender lo que hay detrás de un perfil.

Porque al final del día, elegir a alguien para un puesto no es simplemente tachar casillas. Es reconocer trayectorias, contextos, matices que muchas veces los datos no logran captar. Si esa responsabilidad se deja en manos de tecnologías que no sienten, no comprenden y no pueden rendir cuentas, se corre el riesgo de vaciar el proceso de su sentido más humano. No se trata de rechazar lo “inteligente”, sino de no olvidar que lo verdaderamente valioso no es lo que simula entender, sino quien realmente puede hacerlo con criterio, empatía y responsabilidad.

Referencias: