Mañana, 26 de noviembre de 2025, el Comité de Representantes Permanentes de la Unión Europea (COREPER II) se reunirá en Bruselas para decidir, posiblemente sin debate público, si da luz verde a la tramitación de una nueva versión del controvertido «Chat Control». Esta propuesta, enmarcada en el Reglamento contra el Abuso Sexual Infantil (CSAR, por sus siglas en inglés), busca obligar a las plataformas digitales como WhatsApp, Telegram o Signal a implementar mecanismos de escaneo de mensajes privados, aunque en su iteración actual se presenta como «voluntaria». Críticos, desde expertos en privacidad hasta organizaciones civiles, advierten de que se trata de una «puerta trasera» para la vigilancia masiva, que podría vulnerar derechos fundamentales y allanar el camino para abusos autoritarios.
El «Chat Control» surgió en 2022 como una iniciativa de la Comisión Europea para combatir la pedofilia en línea, pero rápidamente se convirtió en un símbolo de la tensión entre seguridad infantil y privacidad digital. La versión original proponía el escaneo obligatorio de todos los mensajes privados, fotos y archivos en servicios de mensajería cifrada, utilizando inteligencia artificial (IA) para detectar contenido ilegal como el abuso sexual infantil (CSAM). Esto implicaría la debilitación del cifrado de extremo a extremo, exponiendo datos a posibles hackeos y violando artículos clave de la Carta de Derechos Fundamentales de la UE, como el 7 (respeto a la vida privada) y el 8 (protección de datos personales).
La propuesta generó una avalancha de oposición: en 2023, más de 300 científicos, incluyendo investigadores españoles como Carmen Troncoso, firmaron una carta abierta rechazándola por su ineficacia y riesgos desproporcionados, como falsos positivos que podrían criminalizar conversaciones inocentes (por ejemplo, fotos familiares o charlas íntimas). La ONU y el Alto Comisionado para los Derechos Humanos también criticaron su impacto en la privacidad global. En 2024, el Parlamento Europeo rechazó casi unánimemente la versión obligatoria, y el Consejo de la UE pospuso votaciones clave, como la del 14 de octubre de 2025, por falta de consenso.
Países como Alemania, Países Bajos y Austria bloquearon avances por preocupaciones legales y de encriptación, mientras que otros, liderados por Dinamarca (presidencia rotatoria de la UE hasta finales de 2025), presionaron por reformas. El resultado: una «Chat Control 2.0» o «versión light», presentada en noviembre de 2025, que elimina el escaneo obligatorio pero introduce incentivos para que las empresas lo adopten «voluntariamente».
La Nueva Versión: ¿Voluntaria o Vigilancia Disfrazada?
Según un documento aclaratorio del 13 de noviembre de 2025, la propuesta actual afirma que «nada en este Reglamento debe interpretarse como una obligación de detección para los proveedores». Sin embargo, expertos lo ven como un engaño político. Los cambios clave incluyen:
- Análisis de Texto con IA «Voluntario»: Las plataformas podrían implementar escaneo automatizado para detectar «comportamientos de grooming» (acoso previo al abuso) en chats privados. Críticos como Patrick Breyer, ex eurodiputado y activista por la privacidad, advierten de altos índices de falsos positivos, lo que generaría inundaciones de alertas ineficaces y una vigilancia generalizada de usuarios inocentes.
- Verificación de Edad Obligatoria: App stores y servicios de mensajería tendrían que verificar la edad de los usuarios mediante sistemas biométricos o contextuales (como datos de documentos o patrones de uso). Esto, según 18 académicos de instituciones como ETH Zúrich y KU Leuven, es «imposible de hacer de forma privacy-preserving», incentivando la recolección masiva de datos, discriminación (por ejemplo, contra minorías sin acceso a IDs digitales) y exclusión de servicios en línea. Además, podría evadirse fácilmente con VPN o apps no europeas, empujando a los niños a plataformas menos seguras.
- Excepciones Políticas: Curiosamente, los políticos europeos estarían exentos bajo reglas de «secreto profesional», lo que ha avivado acusaciones de hipocresía.
La propuesta, discutida en el Grupo de Trabajo de Aplicación de la Ley el 12 de noviembre de 2025, ha sido respaldada por 12 Estados miembros (incluyendo Dinamarca y Francia), pero enfrenta oposición de 9 (como Alemania y España, que exige más garantías) y 6 indecisos. Organizaciones como el Consejo Europeo de Profesionales de la Informática (CEPIS) la llaman «Chat Control Light», alertando de que deja «puertas abiertas» para futuras obligaciones.
La Reunión del COREPER: Decisión a Puertas Cerradas
El COREPER II, compuesto por los embajadores permanentes de los 27 Estados miembros, se reúne el 26 de noviembre de 2025 en Bruselas para revisar la agenda, que incluye temas institucionales y de ampliación de la UE. Aunque el orden del día oficial no detalla explícitamente el CSAR, documentos filtrados y analistas indican que el «Chat Control» figura como ítem «sin discusión», lo que significa que podría aprobarse por consenso silencioso si no hay objeciones. Si se aprueba, el Consejo de Ministros lo ratificaría en diciembre de 2025, abriendo negociaciones con el Parlamento Europeo en 2026.
Esta «vía rápida» ha sido criticada como un intento de resucitar la norma «por la puerta trasera», evitando el escrutinio público que hundió versiones previas. En septiembre de 2025, una reunión similar del COREPER generó filtraciones que revelaron divisiones, y la de noviembre podría seguir el mismo patrón.
Reacciones: De las Campañas Ciudadanas a las Alertas Expertas
La noticia ha desatado una tormenta en redes sociales y campañas. En X (antes Twitter), miles de usuarios comparten peticiones urgentes: «¡Rechaza el Chat Control! Basta de espionaje de la UE en tus mensajes», con enlaces a CitizenGO, que ha lanzado acciones en varios idiomas para contactar a eurodiputados. La asociación española Hazte Oír alertó ayer de este «intento de resucitar Chat Control por la puerta de atrás», urgiendo a firmar campañas de última hora para presionar a representantes.
Activistas como Breyer y la campaña #FightChatControl (con presencia en Mastodon y Bluesky) llaman a contactar a MEPs, destacando que el escaneo masivo no protege efectivamente a los niños –según la ONU, herramientas existentes como reportes voluntarios bastan– y establece un precedente global para regímenes autoritarios. En Reddit y foros como r/europe, debates sobre posturas nacionales muestran a España exigiendo más protecciones, lo que podría bloquear el consenso.
Empresas tech europeas, a través de la Alianza Europea de PYMES Digitales, advierten de que socavaría la soberanía digital al debilitar la encriptación, beneficiando a competidores no europeos. Políticos como el neerlandés Peter van Houwelingen han denunciado en YouTube la «sneaky route» (ruta sigilosa) de la UE.

