Un horrible asesinato en su propia familia inspiró a la sudafricana Leonora Tima a crear una plataforma digital donde las personas, principalmente mujeres, pueden hablar sobre el abuso y rastrearlo.
La pariente de Leonora tenía solo 19 años y estaba embarazada de nueve meses cuando la mataron y su cuerpo fue arrojado al costado de una carretera cerca de Ciudad del Cabo en 2020.
“Trabajo en el sector del desarrollo, por eso he sido testigo de la violencia”, dice Leonora. “Pero lo que me llamó la atención fue que la muerte violenta de un miembro de la familia se consideraba algo tan normal en la sociedad sudafricana.
“Su muerte no fue publicada por ningún medio porque el número de estos casos en nuestro país es tal que no puede considerarse noticia”.
El asesino nunca fue atrapado, y lo que Leonora vio como una aceptación silenciosa de la muerte violenta de una mujer se convirtió en el catalizador de su aplicación, Gender Rights in Tech (Grit), que cuenta con un chatbot llamado Zuzi.
Es una de las primeras herramientas de inteligencia artificial gratuitas creadas por creadores africanos para combatir la violencia de género.
“Esta es una solución africana diseñada conjuntamente con comunidades africanas”, dice Leonora.
El objetivo es ofrecer apoyo y ayudar a reunir pruebas que luego puedan utilizarse en procesos judiciales contra los atacantes.
La iniciativa está atrayendo un interés creciente entre los activistas internacionales por los derechos de las mujeres, aunque algunos advierten que los chatbots no deben usarse para reemplazar el apoyo humano, enfatizando que las sobrevivientes necesitan la empatía, la comprensión y la conexión emocional que solo un profesional capacitado puede brindar.
Leonora y su pequeño equipo visitaron las comunidades cercanas a su casa en Ciudad del Cabo y hablaron con los residentes sobre sus experiencias de abuso y cómo la tecnología encaja en sus vidas.
Preguntaron a más de 800 personas cómo usan sus teléfonos y redes sociales para hablar sobre la violencia y qué les impide buscar ayuda.
Leonora descubrió que la gente quería hablar sobre sus abusos, pero “desconfiaban de los canales tradicionales como la policía”.
“Algunas mujeres publicaron artículos en Facebook e incluso identificaron a su atacante, sólo para recibir documentos por difamación”, dice.
Consideró que los sistemas existentes fallaron a las víctimas dos veces, primero al no prevenir la violencia en sí y luego, una segunda vez, cuando las víctimas intentaron hablar.
Con el apoyo financiero y técnico de Mozilla, la Fundación Gates y la Fundación Patrick McGovern, Leonora y su equipo comenzaron a desarrollar Grit, una aplicación móvil que podría ayudar a las personas a registrar, denunciar y obtener una respuesta al abuso a medida que ocurre.
La aplicación es gratuita, aunque para descargarla se requieren datos móviles. El equipo de Leonora afirma tener 13.000 usuarios y recibió alrededor de 10.000 solicitudes de ayuda en septiembre.
En esencia, Grit se basa en tres características clave.
En la pantalla de inicio hay un gran botón circular de ayuda. Cuando se presiona, automáticamente comienza a grabar 20 segundos de audio, capturando lo que sucede alrededor del usuario. Al mismo tiempo, activa una alerta a un centro privado de llamadas de respuesta rápida (las empresas de respuesta profesional son comunes en Sudáfrica) donde un operador capacitado llama al usuario.
Si la persona que llama necesita ayuda inmediata, el equipo de respuesta enviará a alguien al lugar o se comunicará con una organización local cercana a la víctima que pueda ayudar.
La aplicación se diseñó teniendo en cuenta las necesidades de los supervivientes de abusos, explica Leonora: “Necesitamos ganarnos la confianza de la gente. Estas son comunidades que a menudo son ignoradas. Le preguntamos a mucha gente cuando se trata de compartir datos”.
Zuzi fue creado con la ayuda de mujeres de comunidades alrededor de Ciudad del Cabo (Grit)
Cuando se le pregunta si se ha hecho un mal uso de la función de ayuda, admite que ha habido algunas pulsaciones curiosas (gente que prueba para ver si realmente funciona), pero nada que ella clasificaría como abuso del sistema.
“La gente es cautelosa. Nos ponen a prueba tanto como nosotros probamos la tecnología”, afirma.
El segundo elemento de Grit es “la bóveda”, que según Leonora es un espacio digital seguro donde los usuarios pueden almacenar pruebas de abuso, fechadas y cifradas, para su posible uso posterior en procedimientos legales.
Las fotos, capturas de pantalla y grabaciones de voz se pueden descargar y guardar de forma privada, protegiendo evidencia crucial contra eliminación o manipulación.
“A veces las mujeres toman fotografías de sus heridas o graban mensajes amenazantes, pero estas pueden perderse o borrarse”, dice Leonora. “La caja fuerte significa que la evidencia no está sólo en un teléfono que podría ser retirado o destruido”.
Este mes, Grit se expandirá nuevamente con el lanzamiento de su tercera función: Zuzi, un chatbot impulsado por inteligencia artificial diseñado para escuchar, asesorar y guiar a los usuarios hacia el soporte de la comunidad local.
“Le preguntamos a la gente: ‘¿Debería ser una mujer? ¿Debería ser un hombre? ¿Debería ser un robot? ¿Debería parecerse a un abogado, un trabajador social, un periodista u otra figura de autoridad?'”, dice Leonora.
La gente les decía que querían que Zuzi fuera “una figura de tía”, alguien cálido y digno de confianza, en quien pudieran confiar sin temor a ser juzgados.
Leonora (derecha) y sus colegas de Grit dicen que su trabajo les da a las mujeres una sensación de control sobre el abuso (Grit)
Aunque fue diseñado principalmente para mujeres que sufren violencia, Zuzi también fue utilizado durante la fase de prueba por hombres que buscaban ayuda.
“Algunas conversaciones provienen de abusadores, de hombres que le piden a Zuzi que les enseñe cómo obtener ayuda para sus problemas de ira, lo que a menudo ellos llevan a sus parejas”, dice Leonora. “También hay hombres que son víctimas de violencia y que han utilizado a Zuzi para hablar más abiertamente sobre sus experiencias.
“A la gente le gusta hablar con la IA porque no se sienten juzgadas por ella”, añade. “Él no es un humano”.
ONU Mujeres informa que Sudáfrica experimenta algunos de los niveles más altos de violencia de género (VG) en el mundo, con una tasa de feminicidio cinco veces mayor que el promedio mundial. Entre 2015 y 2020, una media de siete mujeres fueron asesinadas cada día, según la policía sudafricana.
Muchos, incluida Lisa Vetten, experta en violencia de género en Sudáfrica, coinciden en que es inevitable que la tecnología desempeñe un papel para abordarla.
Pero también advierte sobre el uso de la IA en la atención centrada en el trauma.
“Los llamo grandes modelos lingüísticos, no inteligencia artificial, porque se dedican al análisis y la predicción lingüística, nada más”, afirma.
Ella entiende cómo los sistemas de IA pueden ayudar, pero conoce ejemplos en los que otros chatbots de IA han dado consejos incorrectos a mujeres.
“Me preocupa cuando dan a las mujeres respuestas muy seguras a sus problemas legales”, dice. “Los chatbots pueden proporcionar información útil, pero son incapaces de abordar dificultades complejas y multifacéticas. Lo más importante es que no sustituyen el consejo humano. Se debe ayudar a las personas que han sufrido daños a confiar y sentirse seguras con otros seres humanos”.
Lyric Thompson quiere que más mujeres participen en el desarrollo de la IA (@judith.Litvine/MEAE)
El enfoque de Grit ha atraído la atención internacional.
En octubre, Leonora y su equipo presentaron su aplicación en la Conferencia de Política Exterior Feminista organizada por el gobierno francés en París, donde los líderes mundiales se reunieron para discutir cómo se pueden utilizar la tecnología y las políticas para construir un mundo con mayor igualdad de género. En la conferencia, 31 países se comprometieron a hacer de la lucha contra la violencia de género una prioridad política clave.
Las conversaciones sobre el uso de la IA son animadas, dice Lyric Thompson, fundadora y directora de Feminist Foreign Policy Collaborative, “pero tan pronto como intentas incluir el género en la conversación, para plantear los peligros de prejuicios racistas, sexistas y xenófobos, los ojos se ponen en blanco y la conversación cambia, probablemente a un pasillo donde no hay mujeres molestas para hablar de ello”.
Heather Hurlburt, investigadora asociada de Chatham House que se especializa en IA y su uso en tecnología, está de acuerdo en que la IA “tiene un enorme potencial para ayudar a identificar y corregir la discriminación y la violencia de género, o para afianzar la misoginia y la inequidad”, pero añade que el camino a seguir “depende de nosotros”.
Leonora tiene claro que el éxito de la IA en la lucha contra la violencia de género depende no sólo de la ingeniería, sino también de quién diseña la tecnología en primer lugar.
Un informe del Foro Económico Mundial de 2018 encontró que solo el 22% de los profesionales de la IA en todo el mundo eran mujeres, una estadística que todavía se cita con frecuencia.
“La IA tal como la conocemos hoy se construyó a partir de datos históricos centrados en las voces de los hombres, y de los hombres blancos en particular”, dice Leonora.
“La respuesta no es sólo tener más diseñadoras. También necesitamos diseñadoras que sean mujeres de color, más del Sur Global y más de entornos socioeconómicos menos privilegiados”.
Sólo entonces, concluye Leonora Tima, la tecnología podrá empezar a representar las realidades de quienes la utilizan.
Quizás también te interese:
(Getty Images/BBC)
Ir a BBCAfrica.com para más noticias del continente africano.
Síguenos en Twitter @BBCAfricaen facebook en BBC África o en Instagram en bbcafrique



