Gender Shades

El artículo que expuso el sesgo en el reconocimiento facial

El momento decisivo (2018)

En colaboración con Joy Buolamwini, Timnit Gebru publicó el artículo "Gender Shades". Auditoría técnica de tres de los principales sistemas de reconocimiento facial comercial de Microsoft, IBM y Face++, expuso resultados alarmantes.

Los sistemas demostraron tasas de error extremadamente altas para las mujeres con tonos de piel más oscuros, mientras que eran casi perfectos para los hombres con tonos de piel más claros.

¿Cómo funcionaban? La analogía del reflejo

Datos de entrenamiento: El reflejo en el espejo. Si el espejo está distorsionado por el sesgo, el reflejo será incorrecto.
Modelo de IA: La imagen final reflejada, que amplifica el sesgo oculto.

Temas clave

Desde Gender Shades hasta sus investigaciones críticas:

  • Gender Shades (2018): Auditoría que expuso los sesgos de raza y género.
  • Criticidad de los LLMs: Su artículo sobre los riesgos de los Grandes Modelos de Lenguaje (LLMs).
  • Transparencia de Datos: La necesidad de auditoría y transparencia en los datos de entrenamiento.

Actualidad

Hoy en día compite con los Diffusion Models (como DALL-E) y los LLMs (como GPT-4), pero el sesgo que expuso Timnit sigue siendo el mayor desafío técnico y ético.

Ver ejemplo de Gender Shades

Hitos de Impacto

  • 2018: Gender Shades.
  • 2018+: Auditoría de IA.
  • 2020: Salida de Google.
  • 2021: DAIR Institute.

Ética Tecnológica

Sus investigaciones expusieron nuevos debates sobre el **Sesgo de Género** y nuevos debates sobre la auditoría técnica de los Grandes Modelos de Lenguaje.