GRAMOA aatha Sarvaiya le gustaría publicar en las redes sociales y compartir su trabajo en línea. Graduada en derecho indio cuando tenía poco más de veinte años, se encuentra en las primeras etapas de su carrera y está tratando de darse a conocer ante el público. El problema es que con el aumento de los deepfakes impulsados por IA, ya no hay garantía de que las imágenes que publica no se distorsionen hasta convertirlas en algo violatorio o grotesco.
“Inmediatamente surge el pensamiento: ‘Está bien, tal vez no sea seguro. Quizás la gente pueda tomarnos fotos y simplemente hacer cosas con ellas'”, dice Sarvaiya, que vive en Mumbai.
“El efecto paralizador es real”, dice Rohini Lakshané, investigadora sobre derechos de género y políticas digitales con sede en Mysuru, que también evita publicar fotos suyas en línea. “El hecho de que se pueda hacer un mal uso de ellos con tanta facilidad me hace extremadamente cauteloso”.
En los últimos años, la India se ha convertido en uno de los campos de prueba más importantes para las herramientas de inteligencia artificial. Este es el el segundo mercado global más grande para OpenAIcon tecnología ampliamente adoptado en todas las profesiones.
pero uno informe publicado el lunes que se basa en datos recopilados por la Fundación Rati, una organización benéfica que administra una línea de ayuda nacional para víctimas de abuso en línea, muestra que la creciente adopción de la IA ha creado una nueva y poderosa forma de acosar a las mujeres.
“En los últimos tres años ha quedado claro que una gran mayoría del contenido generado por IA se utiliza para dirigirse a mujeres y minorías de género”, dice el informe de la Fundación Rati y Chismeuna empresa que trabaja para reducir la desinformación en las redes sociales indias.
En particular, el informe revela un aumento en la cantidad de herramientas de inteligencia artificial utilizadas para crear imágenes o videos de mujeres manipulados digitalmente, ya sean desnudos o imágenes que podrían ser culturalmente apropiadas en los Estados Unidos, pero que son estigmatizantes en muchas comunidades indias, como las muestras públicas de afecto.
Según el informe, alrededor del 10% de los cientos de casos reportados a la línea directa ahora involucran estas imágenes. “La IA hace que sea mucho más fácil crear contenido realista”, afirma.
Ha habido casos destacados de mujeres indias en la esfera pública cuyas imágenes han sido manipuladas por herramientas de inteligencia artificial: por ejemplo, el La cantante de Bollywood Asha Bhoslecuya imagen y voz fueron clonadas mediante IA y transmitidas en YouTube. Rana Ayyub, una periodista conocida por sus investigaciones sobre corrupción política y policial, se convirtió el año pasado en blanco de una campaña de doxing que llevó a Imágenes sexualizadas deepfake de su aparición en las redes sociales.
Esto dio lugar a un debate en toda la sociedad, durante el cual ciertas figuras, como Bhosle, lucharon con éxito para obtener derechos legales sobre su voz o semejanza. Menos discutido, sin embargo, es el efecto que estos casos tienen en las mujeres comunes y corrientes que, como Sarvaiya, se sienten cada vez más inseguras acerca de conectarse a Internet.
“La consecuencia del acoso en línea es ser silenciado o volverse menos activo en línea”, dice Tarunima Prabhakar, cofundador de Tattle. Su organización utilizó grupos focales durante dos años en toda la India para comprender cómo el abuso digital estaba afectando a la sociedad.
“La emoción que identificamos es el cansancio”, explica. “Y la consecuencia de esa fatiga es también que uno se aleja por completo de estos espacios en línea”.
En los últimos años, Sarvaiya y sus amigos han seguido en línea casos de alto perfil de abuso de deepfake, como el de Ayyub o el del actor de Bollywood Rashmika Mandanna. “Aquí las mujeres dan un poco de miedo”, afirma.
Ahora, Sarvaiya se muestra reacia a publicar nada en las redes sociales y ha hecho que su Instagram sea privado. Incluso eso, teme, no será suficiente para protegerla: a veces las mujeres son fotografiadas en espacios públicos como el metro, y estos Las imágenes pueden aparecer más tarde en línea..
“No es tan común como podrías pensar, pero no conoces tu suerte, ¿verdad?” ella dijo. “Los amigos de amigos están siendo chantajeados, literalmente, en Internet. »
Lakshané dice que a menudo pide no ser fotografiada en eventos, incluso en aquellos en los que es oradora. Pero a pesar de sus precauciones, se prepara para la posibilidad de que algún día salga a la luz un vídeo o una imagen falsa de ella. En las aplicaciones, hizo de su foto de perfil una ilustración de ella misma en lugar de una foto.
“Existe preocupación por el mal uso de las imágenes, especialmente por parte de las mujeres que aparecen en público, que tienen voz en línea y que adoptan posiciones políticas”, dice.
después de la promoción del boletín
El informe de Rati describe cómo las herramientas de inteligencia artificial, como la “nudificación” o las aplicaciones de nudificación, que pueden eliminar la ropa de las imágenes, han hecho que los casos de abuso que alguna vez se consideraron extremos sean mucho más comunes. En un caso descrito, una mujer se puso en contacto con la línea de ayuda después de que una fotografía que había enviado con una solicitud de préstamo fuera utilizada para extorsionarla.
“Cuando se negó a continuar con los pagos, la foto que subió fue alterada digitalmente usando una aplicación nudify y colocada sobre una imagen pornográfica”, afirma el informe.
Esta foto, acompañada de su número de teléfono, circuló en WhatsApp provocando una “oleada de llamadas y mensajes sexualmente explícitos de desconocidos”. La mujer dijo a la línea de ayuda de Rati que se sentía “avergonzada y socialmente marcada, como si hubiera estado ‘involucrada en algo sucio'”.
En India, como en la mayoría de los demás países del mundo, los deepfakes operan en una zona legal gris. ninguna ley específica los reconoce como formas distintas de daño, aunque el informe de Rati describe varias leyes indias que podrían aplicarse al acoso y la intimidación en línea, según las cuales las mujeres pueden denunciar falsificaciones de IA.
“Pero este proceso es muy largo”, afirma Sarvaiya, quien afirma que el sistema legal indio sigue estando mal equipado para combatir los deepfakes relacionados con la IA. “Y hay mucha burocracia para llegar a este punto y obtener justicia por lo que se hizo”. »
Parte de la responsabilidad recae en las plataformas en las que se comparten estas imágenes (a menudo YouTube, Meta, X, Instagram y WhatsApp). Los organismos encargados de hacer cumplir la ley de la India describen el proceso para lograr que estas empresas eliminen contenido abusivo como “opaco, que requiere muchos recursos, inconsistente y a menudo ineficaz”, según un informe. informe publicado el martes por Igualdad Ahoraque hace campaña por los derechos de las mujeres.
Mientras Manzana Y Meta ha tomado medidas recientemente Para limitar la propagación de aplicaciones de nudificación, el informe de Rati señala varios casos en los que estas plataformas respondieron de manera inadecuada al abuso en línea.
WhatsApp finalmente tomó medidas en el caso de extorsión, pero su respuesta fue “insuficiente”, informó Rati, ya que los desnudos ya estaban en Internet. En otro caso, en el que un creador indio de Instagram fue acosado por un troll que publicaba vídeos de él desnudo, Instagram respondió sólo después de un “esfuerzo sostenido”, con una respuesta “retrasada e inadecuada”.
A menudo se ignoraba a las víctimas cuando denunciaban acoso en estas plataformas, según el informe, lo que las llevó a ponerse en contacto con la línea directa. Además, incluso si una plataforma eliminaba una cuenta que publicaba contenido abusivo, ese contenido a menudo reaparecía en otros lugares, en lo que Rati llama “reincidencia de contenido”.
“Una de las características constantes del abuso generado por la IA es su tendencia a multiplicarse. Se crea fácilmente, se comparte ampliamente y tiende a resurgir repetidamente”, dice Rati. Para remediar esto, “se necesitará mucha más transparencia y acceso a los datos desde las propias plataformas”.



