La Comisión Europea ha iniciado una investigación formal sobre Snapchat, sospechando que la plataforma no protege adecuadamente a los menores de la explotación, la captación y el reclutamiento criminal en línea. Esta investigación, iniciada bajo la Ley de Servicios Digitales (DSA), podría resultar en sanciones sustanciales o cambios obligatorios en las políticas de Snapchat.
El núcleo de la investigación
Las preocupaciones de la Comisión se centran en cinco áreas clave:
- Verificación de edad: Snapchat depende en gran medida de la autoevaluación de la edad, un sistema que la UE considera “insuficiente” para mantener a los niños fuera de la plataforma.
- Preparación y reclutamiento: La investigación examinará si Snapchat permite que los depredadores se hagan pasar por usuarios jóvenes para atacar a los niños. Este es un problema importante porque los depredadores buscan activamente plataformas donde haya menores presentes, y una verificación laxa lo facilita.
- Configuración predeterminada: Se acusa a la configuración predeterminada de Snapchat de no brindar privacidad y seguridad adecuadas a los usuarios jóvenes. Es posible que el diseño de la aplicación no priorice la protección de los menores, dejándolos vulnerables a la explotación.
- Productos ilegales: La Comisión examinará si Snapchat facilita la venta de productos prohibidos como drogas, vaporizadores y alcohol mediante una moderación inadecuada del contenido.
- Mecanismos de denuncia: La UE sospecha que el sistema de denuncia de contenido ilegal de Snapchat “no es fácil de acceder ni fácil de usar”, lo que dificulta que los usuarios detecten actividades dañinas.
Por qué esto es importante: la DSA y la seguridad digital
Esta investigación es importante porque destaca la creciente aplicación de la Ley de Servicios Digitales (DSA). La DSA tiene como objetivo responsabilizar a las grandes plataformas en línea por contenidos ilegales y dañinos, especialmente en relación con poblaciones vulnerables como los niños.
La DSA es fundamental porque traslada la carga de la responsabilidad a las plataformas. Anteriormente, la aplicación de la ley era fragmentada y lenta. Ahora, la UE tiene el poder de investigar e imponer multas importantes si las empresas no cumplen. Snapchat tiene aproximadamente 94,5 millones de usuarios europeos, lo que la convierte en un objetivo de alta prioridad para los reguladores.
Respuesta de Snapchat
Snapchat afirma que prioriza la seguridad y ha cooperado con la Comisión. La compañía sostiene que su diseño se centra en conexiones estrechas y privacidad integrada. Sin embargo, la UE se muestra escéptica y cita preocupaciones sobre prácticas de diseño engañosas (“patrones oscuros”) y una verificación de edad inadecuada.
Snapchat tiene cuentas para “adolescentes” con protecciones adicionales, pero la Comisión sostiene que éstas se ven socavadas por la dependencia de la autodivulgación. La compañía insiste en que seguirá cooperando, pero la investigación sugiere una desconexión fundamental entre las afirmaciones de Snapchat y la evaluación de la UE de sus medidas de seguridad.
¿Qué viene después?
La investigación de la Comisión revisará las evaluaciones de riesgos de Snapchat de 2023 a 2025 y datos adicionales de octubre de 2023. La empresa puede verse obligada a cambiar sus políticas y prácticas o enfrentar nuevas medidas coercitivas. La Autoridad Holandesa de Consumidores y Mercados (ACM) ya ha investigado problemas similares en Snapchat y sus conclusiones se integrarán a la investigación de la UE.
Esta investigación señala una tendencia más amplia: los reguladores ya no están dispuestos a aceptar la autorregulación de las plataformas. La DSA les brinda las herramientas para imponer un cambio real, y Snapchat es el último ejemplo de una empresa que enfrenta un mayor escrutinio.
El resultado sentará un precedente para otras plataformas de redes sociales y demostrará si la UE puede proteger eficazmente a los niños en línea.














































