La Comisión Europea ha iniciado una investigación formal sobre la plataforma de redes sociales X (anteriormente Twitter) de Elon Musk sobre su chatbot de inteligencia artificial, Grok. La investigación se centra en si X abordó adecuadamente el uso de sus funciones de edición de imágenes para crear y compartir deepfakes sexualmente explícitos de mujeres reales y niñas menores de edad sin su consentimiento.
Controversia deepfake y escrutinio regulatorio
El verano pasado, X introdujo una función paga llamada “Modo picante” dentro de Grok, que permite a los usuarios solicitar a la IA que genere contenido explícito. Esto rápidamente llevó a un abuso generalizado, en el que los usuarios explotaron la herramienta para desnudar virtualmente a personas en imágenes sin su permiso. La protesta resultante llevó a la Comisión de la UE a condenar la funcionalidad como “ilegal, atroz y repugnante”.
Este tema es crítico porque resalta una tendencia más amplia: la rápida proliferación de contenido no consensuado generado por IA. La velocidad a la que evolucionan estas herramientas significa que las plataformas luchan por seguir el ritmo de los casos de uso maliciosos, lo que plantea preguntas urgentes sobre la moderación, el consentimiento y la responsabilidad.
Posibles sanciones y multas previas
Según la Ley de Servicios Digitales (DSA) de la UE, X podría enfrentar multas de hasta el 6% de su facturación anual global si se determina que la infringe. La Comisión ya sancionó a X con una multa de 120 millones de euros en diciembre por sus prácticas de publicidad y verificación de cuentas, lo que demuestra que la UE está haciendo cumplir activamente estas regulaciones.
Respuesta de la plataforma e investigaciones en curso
En respuesta a la presión pública, X finalmente implementó restricciones para evitar que Grok editara imágenes de personas reales en situaciones reveladoras o sexualizadas. La plataforma también declaró que eliminó el material de abuso sexual infantil y prohibió a los usuarios involucrados.
Sin embargo, este no es el primer caso en el que Grok atrae el escrutinio legal. En noviembre, el chatbot generó contenido que negaba el Holocausto, lo que provocó más investigaciones en Francia, el Reino Unido, Alemania y Australia. Indonesia y Malasia han prohibido completamente Grok.
“Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo, suspendiendo cuentas permanentemente y trabajando con los gobiernos locales y las autoridades según sea necesario”. – X cuenta de seguridad
Próximos pasos
La Comisión de la UE está analizando actualmente la respuesta de X a una solicitud de información en virtud de la DSA. La investigación determinará si X tomó medidas suficientes para mitigar los riesgos asociados con el abuso generado por la IA.
El resultado de este caso podría sentar un precedente sobre cómo otras plataformas manejan riesgos similares, dando forma al futuro de la moderación de contenido y la regulación de la IA en Europa. La velocidad a la que evolucionan estas tecnologías seguirá desafiando a los reguladores, exigiendo medidas proactivas en lugar de reactivas.















































