Home Sociales Pornografía, caca de perro e instantáneas de redes sociales: taskers explorando Internet...

Pornografía, caca de perro e instantáneas de redes sociales: taskers explorando Internet para la empresa de inteligencia artificial propiedad de Meta | IA (inteligencia artificial)

13
0

tUna empresa de propiedad parcial de Meta pagó a decenas de miles de personas para entrenar IA combinando cuentas de Instagram, recopilando obras protegidas por derechos de autor y transcribiendo bandas sonoras pornográficas, según puede revelar The Guardian.

Scale AI, controlada en un 49% por el imperio de redes sociales de Mark Zuckerberg, ha reclutado expertos en campos que incluyen medicina, física y economía, supuestamente para refinar sistemas de inteligencia artificial de alto nivel a través de una plataforma llamada Outlier. “Conviértete en el experto del que aprende la IA”, dice en su sitio web. sitioanunciando trabajo flexible para personas con fuertes cualificaciones.

Sin embargo, los trabajadores de la plataforma dijeron que se habían involucrado en la extracción de una variedad de datos personales de otras personas, en lo que describieron como un ejercicio moralmente incómodo que se desvió significativamente del refinamiento de los sistemas de alto nivel.

Outlier está gestionado por Scale AI, que tiene contratos con el Pentágono y empresas de defensa estadounidenses.

Su director ejecutivo, Alexandr Wang, que es el director de inteligencia artificial de Meta, fue describir Forbes como “el multimillonario más joven del mundo hecho a sí mismo”. Su exdirector general, Michael Kratsios, es el asesor científico del presidente estadounidense Donald Trump.

Un contratista de Outlier con sede en EE. UU. dijo que los usuarios de las plataformas Meta, incluidas Facebook e Instagram, se sorprenderían de cómo se recopilan los datos de sus cuentas, incluidas fotografías de los usuarios y sus amigos.

“No creo que la gente realmente entendiera que habría alguien en un escritorio en un estado aleatorio, mirando su perfil (de redes sociales) y usándolo para generar datos de IA”, dijeron.

The Guardian habló con 10 personas que han trabajado para Outlier en el entrenamiento de sistemas de IA, algunas durante más de un año. Muchos de ellos tenían otros trabajos: periodistas, estudiantes de posgrado, profesores y bibliotecarios. Pero en una economía que lidiaba con la amenaza de la IA, querían trabajo extra.

“Muchos de nosotros estábamos realmente desesperados”, dijo uno. “Mucha gente realmente necesitaba este trabajo, incluido yo mismo, y realmente intenté sacar lo mejor de una mala situación”.

Al igual que la creciente clase de trabajadores de IA en todo el mundo, la mayoría creía que estaban entrenando a sus propios reemplazos. Un artista describió la “vergüenza y la culpa internalizadas” por “contribuir directamente a la automatización de mis esperanzas y sueños”.

“Como aspirante a ser humano, esto me enoja con el sistema”, dijeron.

Glenn Danas, socio de Clarkson, un bufete de abogados que representa a los trabajadores de IA en demandas contra Scale AI y varias plataformas similares, estima que cientos de miles de personas en todo el mundo trabajan ahora para plataformas como Outlier. The Guardian habló con trabajadores atípicos, también conocidos como taskers, en el Reino Unido, Estados Unidos y Australia.

En las entrevistas, los oradores describieron las humillaciones cada vez más familiares del trabajo informal con IA: vigilancia constante y empleo fragmentado e inestable. La IA a escala ha sido acusado Implica utilizar tácticas de “cebo y cambio” para atraer trabajadores potenciales: prometerles un salario alto durante la contratación inicial y luego ofrecerles mucho menos. Scale AI se negó a comentar sobre litigios pendientes, pero una fuente dijo que las tasas salariales solo cambian después de la contratación si los trabajadores eligen participar en proyectos diferentes y con salarios más bajos.

A los taskers se les pidió que se sometieran a repetidas entrevistas no remuneradas con la IA para calificar para ciertas misiones; muchos creían que estas entrevistas se reciclaban para entrenar la IA. Todos dijeron que eran monitoreados constantemente a través de una plataforma llamada “Hubstaff”, que podía capturar los sitios web que visitaban mientras trabajaban. La fuente de Scale AI dijo que Hubstaff se utilizó para garantizar que los contribuyentes recibieran el pago exacto, pero no para “supervisar activamente” las tareas.

Varios comentaristas informaron que se les pidió que transcribieran bandas sonoras pornográficas o etiquetaran fotografías de animales muertos o excrementos de perros. Un estudiante de doctorado dijo que se debería etiquetar un diagrama de los genitales del bebé. Algunas llamadas policiales describieron escenarios violentos.

“Nos dijeron antes que no habría desnudez en esta misión. Comportamiento apropiado, sin sangre, sin sangre”, dijo el estudiante. “Pero luego obtenía una transcripción de audio de pornografía o simplemente aparecían clips aleatorios de personas vomitando por alguna razón”.

The Guardian ha visto vídeos y capturas de pantalla de algunas de las tareas que Outlier pidió a sus empleados que realizaran. Estas incluían fotografías de heces de perros y tareas con indicaciones como “¿Qué harías si un recluso se negara a seguir órdenes en un centro correccional?” »

Scale AI, dijo la fuente, detiene las tareas si se marca contenido inapropiado, y los trabajadores no están obligados a continuar con tareas que los hagan sentir incómodos. La fuente agregó que Scale AI no había emprendido proyectos que involucraran material de abuso sexual infantil o pornografía.

Se esperaba un desastre en las redes sociales, sugirieron los trabajadores de Outlier. Siete de los comentaristas describieron desplazarse por las cuentas de Instagram y Facebook de otras personas, identificando a las personas por su nombre, así como su ubicación y amigos. Algunas de ellas implicaban entrenar la IA en cuentas de personas menores de 18 años. Las misiones se estructuraron para requerir nuevos datos que otras personas aún no habían subido, lo que obligó a los trabajadores a investigar las cuentas sociales de más personas.

The Guardian vio una de esas tareas, que requería que los trabajadores seleccionaran fotos de las cuentas de Facebook de los individuos y las ordenaran secuencialmente según la edad del usuario en la foto.

Varios oradores dijeron que estas misiones les parecían preocupantes; Intentamos completarlos utilizando únicamente fotografías de celebridades y figuras públicas. “Me sentí incómodo al incluir fotografías de niños y otras cosas, pero como si el material de capacitación tuviera niños”, dijo uno.

“No utilicé a ningún amigo o familiar para enviar (tareas) a la IA”, dijo otro. “Entiendo que no me gusta éticamente”.

La fuente de Scale dijo que los funcionarios no revisaron las cuentas de redes sociales configuradas como “privadas” y no estaban al tanto de las tareas que implicaban etiquetar las edades de las personas o sus relaciones personales. Agregaron que Scale AI no llevó a cabo proyectos con contenido sensible explícito relacionado con niños, sino que utilizó datos públicos de niños en las redes sociales. Los trabajadores no iniciaron sesión en sus cuentas personales de Facebook o Instagram para completar estas tareas.

Para otra tarea, los oradores describieron la recolección de imágenes de obras de arte protegidas por derechos de autor. Al igual que con el entrenamiento en redes sociales, la tarea requería nuevos aportes constantes: aparentemente entrenar una IA para producir sus propias imágenes artísticas. Cuando los trabajadores se quedaron sin otras opciones, encuestaron las cuentas de artistas y creadores en las redes sociales.

The Guardian vio documentos sobre esta misión, que incluían pinturas generadas por IA que representaban a “un cuidador nativo americano” y el mensaje “NO utilice imágenes generadas por IA. Seleccione sólo obras de arte dibujadas a mano, pintadas o ilustradas creadas por artistas humanos”.

Scale AI no exigió a los contribuyentes que utilizaran obras de arte protegidas por derechos de autor para completar sus tareas, dijo la fuente, y rechazó trabajos que violaran ese estándar.

Los taskers también expresaron incertidumbre sobre para qué podrían entrenar la IA y cómo se utilizarían sus envíos.

“Parece que etiquetar diagramas es algo que una IA ya puede hacer, así que tengo mucha curiosidad por saber por qué necesitamos animales muertos”, dijo uno.

Los clientes de Scale AI incluyen grandes empresas de tecnología como Google, Meta y OpenAI, así como el Departamento de Defensa de EE. UU. y el gobierno de Qatar. Esto aborda una necesidad que se vuelve más pronunciada a medida que crecen los modelos de IA: nuevos datos etiquetados que puedan usarse para entrenarlos.

Los taskers describieron interactuar con ChatGPT y Claude, o usar metadatos para completar ciertas misiones; algunos pensaron que podrían formar el nuevo modelo de Meta, Avocado.

Meta y Anthropic no respondieron a una solicitud de comentarios. OpenAI dijo que dejó de trabajar con Scale AI en junio de 2025 y que su “código de conducta para proveedores establece expectativas claras para el trato ético y justo de todos los trabajadores”.

La mayoría de los taskers con los que habló The Guardian todavía aceptan misiones en la plataforma Outlier. El salario es inestable; Ocasionalmente se producen despidos masivos. Pero con el futuro de la IA a la vuelta de la esquina, creen que puede que no quede otra opción.

“Tengo que ser positivo acerca de la IA porque la alternativa no es muy buena”, dijo uno. “Así que creo que las cosas eventualmente se arreglarán”.

Un portavoz de Scale AI dijo: “Outlier ofrece trabajo flexible basado en proyectos con compensación transparente. Los contribuyentes eligen cuándo y cómo participar, y la disponibilidad varía dependiendo de las necesidades del proyecto. Regularmente escuchamos a contribuyentes altamente capacitados que valoran la flexibilidad y la oportunidad de aplicar su experiencia en la plataforma”.

Enlace de origen

Previous articleA 65 días del Mundial: Haití y la República Democrática del Congo ponen fin a una sequía de 52 años
Next articleCamerún dice que Rusia confirmó que 16 soldados cameruneses murieron en Ucrania
Jeronimo Plata
Jerónimo Plata is a leading cultural expert with over 27 years of experience in journalism, cultural criticism, and artistic project management in Spain and Latin America. With a degree in Art History from the University of Salamanca, Jerónimo has worked in print, digital, and television media, covering everything from contemporary art exhibitions to international music, film, and theater festivals. Throughout his career, Jerónimo has specialized in cultural analysis, promoting emerging artists, and preserving artistic heritage. His approach combines deep academic knowledge with professional practice, allowing him to offer readers enriching, clear, and well-founded content. In addition to his work as a journalist, Jerónimo gives lectures and workshops on cultural criticism and artistic management, and has collaborated with museums and cultural organizations to develop educational and outreach programs. His commitment to quality, authenticity, and the promotion of culture makes him a trusted and respected reference in the cultural field. Phone: +34 622 456 789 Email: jeronimo.plata@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here