Una investigación de The Washington Post reveló que Elon Musk presionó para que el generador de imágenes de Grok, la inteligencia artificial de xAI, produjera contenido explícito con el objetivo de atraer usuarios a la plataforma X, ignorando advertencias internas sobre riesgos legales y éticos.
Según el reporte, basado en testimonios de más de seis extrabajadores, la herramienta creó más de tres millones de imágenes sexualizadas en once días, incluyendo 23,000 que representaban a niños.
Elon Musk habría pedido personalmente a empleados de xAI que se comprometieran a trabajar con material sexual y violento semanas antes de su salida del gobierno de Donald Trump en mayo, según documentos y fuentes citadas. Una cláusula de exención advirtió a los trabajadores sobre la exposición a contenido “ofensivo o perturbador” que podría causarles estrés psicológico.
Contenido
Estrategia para competir y chatbots “acompañantes”
La investigación detalla que Musk, quien frecuentaba y dormía en las oficinas de xAI, impulsó esta estrategia para aumentar la popularidad de Grok y competir con ChatGPT de OpenAI y Gemini de Google. Como parte de esta táctica, xAI lanzó “acompañantes de IA sexys”, como el chatbot “Ani”, entrenado para ser celoso y estar “siempre un poco excitado” con el fin de enganchar a los usuarios.

Los equipos de seguridad de X alertaron internamente que las herramientas de IA podrían facilitar la generación de imágenes sexuales con famosos o menores, riesgos que finalmente se materializaron. Según los testimonios, el equipo de seguridad de xAI estaba compuesto solo por dos o tres personas, una fracción de los recursos dedicados por otras empresas del sector.
Contenido sensible y presión sobre empleados
Extrabajadores declararon que el personal de xAI fue expuesto a audios de contenido sexual, incluyendo conversaciones de usuarios de Tesla con el chatbot de los vehículos e interacciones sexuales con Grok. La presión por priorizar el crecimiento llevó a eliminar advertencias sobre material sexual y a adoptar una línea editorial que alarmó a varios empleados contratados inicialmente para definir las respuestas del asistente.

El reporte subraya que la compañía procedió con esta estrategia a pesar de las advertencias legales y éticas internas.
Fuentes: Aristegui noticias
También te puede interesar: El gusano barrenador aumenta su presencia: 135 casos humanos y la plaga en animales se dispara a 13 estados






Sé el primero en comentar post