Google ha informado a la Unión Europea que no implementará verificaciones de hechos en los resultados de búsqueda y videos de YouTube, ni los usará para clasificar o eliminar contenido, a pesar de las exigencias de una nueva ley europea, según revela una carta obtenida por la web Axios.
Google nunca ha considerado la verificación de datos como parte de su estrategia de moderación de contenido. La empresa ya había comunicado en privado a los legisladores europeos su intención de no modificar estas prácticas, pero ahora reafirma esta posición antes de que un código voluntario se transforme en ley.
En una misiva dirigida a Renate Nikolay, subdirectora general de la unidad de contenido y tecnología de la Comisión Europea, Kent Walker, presidente de asuntos globales de Google, ha argumentado que integrar la verificación de datos según lo estipula el nuevo Código de Prácticas contra la Desinformación de la Comisión «no es ni apropiado ni efectivo para nuestros servicios». Walker ha añadido que Google no se adherirá a estas nuevas directrices.
El código pediría a Google que incluyera verificaciones de hechos en los resultados de búsqueda de Google y en los videos de YouTube, además de integrar estos datos en sus algoritmos y sistemas de clasificación. Walker ha defendido el enfoque actual de moderación de contenido de Google, citando la gestión exitosa del contenido durante las recientes elecciones globales como evidencia.
También ha destacado una nueva función de YouTube introducida el año pasado, que permite a ciertos usuarios añadir notas contextuales a los videos, sugiriendo que esta tiene «un potencial significativo». Este sistema es similar a las «Community Notes» de X y a un nuevo programa anunciado por Meta recientemente.
El Código de Buenas Prácticas contra la Desinformación de la UE, lanzado en 2022, incluye compromisos voluntarios que se espera que las empresas tecnológicas y las organizaciones de verificación de datos cumplan. Este código, originalmente establecido en 2018, precede a la nueva legislación de la UE sobre moderación de contenido, la Ley de Servicios Digitales (DSA), que entró en vigor ese mismo año.
La Comisión Europea ha mantenido diálogos privados con empresas tecnológicas durante el último año, animándolas a convertir estas medidas voluntarias en un código de conducta oficial bajo la DSA.
Walker ha dicho en su carta que Google ya había informado a la Comisión de su decisión de no cumplir con estas nuevas exigencias. Google «se retirará de todos los compromisos de verificación de hechos en el Código antes de que se convierta en un Código de Conducta de la DSA», escribió. Aseguró que Google seguirá invirtiendo en mejoras de sus prácticas actuales de moderación de contenido, centrándose en proporcionar más información en los resultados de búsqueda a través de herramientas como la marca de agua Synth ID y las declaraciones de IA en YouTube.
Esta revelación se produce en medio de un debate global sobre el papel de las plataformas tecnológicas en la verificación de hechos y la moderación del discurso. La semana pasada, Meta anunció que cesaría sus esfuerzos de verificación de hechos y reduciría la vigilancia sobre la libertad de expresión en sus plataformas. Desde que Elon Musk tomó el control de X en 2022, los esfuerzos de moderación de contenido en la plataforma han disminuido significativamente.
Harto de que me engañen por todos lados solo puedo desconfiar y establecer la hipótesis de que Google también juega a este globalista teatro político-ideológico cuya clave está en dejar muchas pistgas falsas para que no descubramos al escondidísimo enemigo de la Humanidad. Pronto veremos si esta hipótesis es falsa o verdadera