Tecnológicas líderes enfrentan multas, pagos millonarios y esfuerzos fallidos
REDES. Denuncia por rastrear ubicaciones, sanción por violar protección a menores y críticas por no quitar textos antivacunas afectan a Google, TikTok y Facebook, respectivamente.
Agencias
Esta semana a los gigantes tecnológicos de Google, Facebook y TikTok les llovió sobre mojado tras verse afectados por situaciones vinculadas a la gestión con sus usuarios.
Google paga
Google acordó pagar US$ 93 millones al estado de California para frenar la denuncia de que rastreó la ubicación de los usuarios sin su conocimiento.
El acuerdo se produjo tras una investigación "de varios años" del Departamento de Justicia de California, que determinó que Google engañó a los usuarios haciéndoles creer que no estaban siendo rastreados cuando sí lo estaban.
"La investigación reveló que Google les estaba diciendo a sus usuarios una cosa -que ya no rastrearía su ubicación una vez que optaran por no hacerlo-, pero hacía lo contrario y continuaba rastreando los movimientos de sus usuarios para su propio beneficio comercial. Es inaceptable y responsabilizamos a Google con el acuerdo", dijo el Fiscal General Rob Bonta.
Según los términos del acuerdo, Google también debe proporcionar más información sobre los datos de ubicación que recopila de los usuarios.
Desde que se produjeron estas demandas, Google ha cambiado su herramienta y, según dijo el portavoz de la compañía José Castañeda a The Verge, las acusaciones están "basadas en políticas de productos obsoletas que cambiamos hace años".
Por su parte, un estudio publicado el viernes en la revista Science Advances, aseguró que los esfuerzos de Facebook por eliminar contenido antivacunas de su plataforma durante la pandemia del covid-19 no lograron reducir la exposición de sus usuarios a este tipo de publicaciones.
Investigadores de la Universidad George Washington, en Washington D.C., descargaron datos públicos de la app de diferentes fechas (antes del inicio de la política de eliminación de información falsa sobre vacunas, en diciembre 2020, y después), y vieron que la interacción de usuarios con estas publicaciones no solo no se redujo, sino que aumentó en ciertos casos.
La investigadora Lorien Abroms dijo que sus resultados apuntan a que es difícil eliminar la desinformación en temas de salud de los espacios públicos.
La hipótesis central es que fue la propia arquitectura de Facebook, en especial sus sistemas para impulsar la creación de grupos y compartir información, lo que provocó ese aumento de interacciones con contenido antivacunas, pese a los esfuerzos de la app por eliminarlo.
"Los individuos que tienen una alta motivación para hallar y compartir contenido antivacunas simplemente están utilizando el sistema de la forma en que está diseñado", dijo David Broniatowski, líder del estudio.
Su conclusión es que eliminar contenido o cambiar algoritmos no sirve si no se modifica el objetivo principal de las plataformas: la conexión de personas que comparten intereses, en este caso, el miedo a las vacunas.
Según la universidad, los hallazgos sugieren que las empresas de este tipo pueden mitigar estos efectos dañinos colaborando unas con otras para crear "códigos de construcción" de sus apps, informados por la ciencia, de la misma forma que los arquitectos aseguran sus edificios con ventilación, salidas de emergencia y otras medidas.
Tiktok
El mismo viernes, el organismo regulador de datos de Irlanda informó que multó a TikTok con 345 millones de euros por violar la normativa comunitaria de protección de menores.
La Comisión de Protección de Datos (DPC) anunció su decisión de castigar a la red social por sus prácticas (del 31 de julio de 2020 al 31 de diciembre de ese año) aunque la compañía aseguró haberlas modificado desde entonces.
TikTok abría por defecto las cuentas de menores al público en general, posibilitando que adultos tuviesen acceso a ellas y pudiesen enviar mensajes directos a sus titulares.
La DPC explicó que su investigación, abierta en septiembre de 2021, reveló que se vulneraron ocho cláusulas del Reglamento General de Protección de Datos (RGPD) por no facilitar información transparente a sus usuarios menores de edad.
También se consideró que TikTok no tuvo en cuenta los riesgos para los menores de 13 años con acceso a la plataforma, pese a que esa es la edad mínima para abrirse una cuenta.