Principios Éticos de la Inteligencia Artificial de Iria
En Iria, somos conscientes del profundo impacto que nuestra tecnología puede tener en la vida de las personas y en el futuro de las organizaciones. Asumimos esta responsabilidad con el máximo rigor. Los siguientes principios son la brújula que guía nuestro pensamiento en el desarrollo, implementación y evolución de la IA en nuestras soluciones.
Vivimos en un panorama tecnológico en constante transformación. Por ello, nuestras prácticas evolucionan en diálogo constante con nuestros clientes, candidatos y socios tecnológicos para asegurar que nos adherimos a los más altos estándares posibles.
Nuestros Principios Éticos Fundamentales
- •Compromiso con el Bienestar Humano y el Avance Social: Desarrollamos IA para servir al bien común, potenciar el talento y construir entornos laborales más justos, inclusivos y productivos. Nuestro objetivo es crear sistemas que aumenten la capacidad humana y mejoren la toma de decisiones, no que la reemplacen.
- •Diseño Centrado en la Equidad, la Justicia y la No Discriminación: La equidad es el pilar de nuestro diseño. Dada la aplicación de la IA en procesos de selección, trabajamos proactivamente para prevenir la amplificación de sesgos injustos. Como se detalla en nuestra Declaración de Explicabilidad, nuestro Marco de Evaluación por Competencias Estructuradas (MEC) es la principal herramienta para garantizar que la evaluación se centre exclusivamente en las competencias relevantes para el puesto, mitigando la influencia de factores demográficos.
- •Fomento de la Transparencia y la Explicabilidad: Creemos que la confianza se construye sobre la comprensión. Nos esforzamos por desarrollar sistemas cuyos resultados sean lo más transparentes y explicables posible. Nuestros informes detallan no solo las puntuaciones, sino las evidencias textuales extraídas de la entrevista que las justifican, permitiendo una auditoría humana completa.
- •Garantía de la Privacidad y Protección Rigurosa de los Datos: La privacidad es un pilar fundamental. Incorporamos los principios de "privacidad desde el diseño" y "privacidad por defecto" en cada etapa del ciclo de vida de nuestra tecnología, asegurando el cumplimiento de las normativas de protección de datos aplicables y el control por parte de los usuarios sobre su información.
- •Supervisión Humana Significativa: Nuestros sistemas de IA están diseñados para ser herramientas poderosas que asisten y aumentan la inteligencia humana. La toma de decisiones final en un proceso de selección siempre recae en profesionales cualificados. Iria proporciona análisis y datos objetivos para enriquecer su juicio, no para sustituirlo.
- •Validación Rigurosa y Mejora Constante: Sometemos nuestro Marco de Evaluación (MEC) y nuestros procesos a un exhaustivo y continuo proceso de validación y testeo. Esto incluye pruebas de rendimiento, precisión, fiabilidad y, crucialmente, de equidad. Monitoreamos constantemente el comportamiento del sistema para asegurar que se alinea con nuestros estándares éticos.
- •Responsabilidad y Rendición de Cuentas: Asumimos la responsabilidad por el impacto de nuestra tecnología. Hemos establecido mecanismos claros de gobernanza interna y líneas de responsabilidad definidas para abordar cualquier inquietud o resultado no deseado.
Nuestro Enfoque para Prevenir y Mitigar Sesgos
Nuestra misión no es solo cumplir con las directrices legales, sino ir más allá: utilizar activamente nuestra tecnología para promover la diversidad, la equidad y la igualdad de oportunidades.
El enfoque de Iria difiere fundamentalmente de los sistemas que entrenan modelos con datos históricos, los cuales pueden perpetuar sesgos del pasado. Nosotros no entrenamos modelos de lenguaje desde cero. En su lugar, hemos desarrollado un robusto Marco de Evaluación por Competencias Estructuradas (MEC).
El MEC actúa como un sistema de gobernanza sobre modelos de lenguaje avanzados (como Gemini de Google). En lugar de hacer preguntas abiertas, nuestro marco obliga a la IA a razonar dentro de unos límites estrictos, descomponiendo la evaluación en un análisis riguroso y multidimensional. Se le exige al modelo que califique competencias predefinidas y que justifique cada puntuación basándose únicamente en la evidencia textual extraída de la conversación con el candidato.
Este método de análisis controlado es nuestra principal herramienta para mitigar sesgos:
- •Neutralidad: Al no tener conocimiento del género, etnia, edad u otros datos demográficos del candidato, el sistema se centra exclusivamente en el contenido de las respuestas.
- •Consistencia: El MEC asegura que cada candidato sea evaluado bajo los mismos criterios rigurosos y detallados, eliminando la variabilidad inherente a los entrevistadores humanos.
- •Validación Continua: Nuestro equipo evalúa continuamente la equidad y consistencia de los análisis generados por el MEC. Si se detecta una desviación o un posible sesgo, se ajusta el marco para corregirlo.
Creemos firmemente que una IA bien diseñada y gobernada puede ser una fuerza poderosa para la equidad. Al estructurar y objetivar la primera fase de la evaluación, permitimos que los reclutadores dediquen más tiempo a conocer en profundidad a los candidatos finalistas, tomando decisiones más informadas y justas.
Para una descripción más técnica de nuestra arquitectura y procesos de validación, le invitamos a consultar nuestra Declaración de Explicabilidad de la IA. Si tiene preguntas específicas sobre nuestros principios éticos, por favor, diríjalas a su contacto habitual en Iria.