MEDIOS YouTube > fake news > Estados Unidos

DESINFORMACIÓN

Youtube dio de baja 10.000 videos y alertan sobre fake news

Youtube ha limitado la difusión de información antes de las elecciones, pero una nueva investigación mostró que las narrativas falsas continuaron filtrándose.

No, China no ha trabajado con los demócratas para robar las elecciones intermedias, como han afirmado algunas personas en YouTube. Arabia Saudita tampoco.

Y no hay evidencia de que una "cantidad abrumadora de fraude" se propinara en Pensilvania en 2020, o que las máquinas de votación electrónica manipulen los resultados la próxima semana, como afirmó un activista conservador en un video.

Antes de las elecciones intermedias, los vigilantes de la desinformación dicen que les preocupa que lo que se ha descrito como un esfuerzo agresivo de YouTube para confrontar la información errónea en la plataforma propiedad de Google haya desarrollado puntos ciegos. En particular, les preocupa el servicio similar a TikTok de YouTube que ofrece videos muy cortos y los videos en español de la plataforma.

Pero la situación es difícil de entender claramente, dijeron más de una docena de investigadores en entrevistas con The New York Times, porque tienen acceso limitado a los datos y porque examinar videos es un trabajo que requiere mucho tiempo.

“Es más fácil investigar con otras formas de contenido”, como el texto que se encuentra en Facebook o Twitter, dijo Jiore Craig, directora de integridad digital del Instituto para el Diálogo Estratégico, o ISD, una organización sin fines de lucro que contrarresta el extremismo y la desinformación. “Eso pone a YouTube en una situación en la que les sale más fácil”.

directora youtube.jpg

Si bien Facebook y Twitter son examinados de cerca en busca de información errónea, YouTube a menudo ha pasado desapercibido, a pesar de la amplia influencia de la plataforma de video. Llega a más de dos mil millones de personas y alberga el segundo motor de búsqueda más popular de la web.

YouTube prohibió los videos que afirmaban un fraude generalizado en las elecciones presidenciales de 2020, pero no ha establecido una política comparable para las elecciones intermedias, una medida que generó críticas de algunos organismos de control.

“No se construye un sistema de rociadores después de que el edificio está en llamas”, dijo Angelo Carusone, presidente de Media Matters for America, una organización sin fines de lucro que monitorea la desinformación conservadora.

Una portavoz de YouTube dijo que la empresa no estaba de acuerdo con algunas de las críticas a su trabajo en la lucha contra la desinformación. “Hemos invertido mucho en nuestras políticas y sistemas para asegurarnos de que estamos combatiendo con éxito la desinformación relacionada con las elecciones con un enfoque de varios niveles”, dijo la portavoz, Ivy Choi, en un comunicado.

YouTube dijo que eliminó una serie de videos que The New York Times marcó por violar sus políticas sobre spam e integridad electoral y que determinó que otros contenidos no violaban sus políticas. La compañía también dijo que de abril a junio eliminó 122,000 videos que contenían información errónea.

“Las pautas de nuestra comunidad prohíben engañar a los votantes sobre cómo votar, alentar la interferencia en el proceso democrático y afirmar falsamente que las elecciones estadounidenses de 2020 fueron manipuladas o robadas”, dijo Choi. “Estas políticas se aplican a nivel mundial, independientemente del idioma”.

YouTube intensificó su postura contra la desinformación política después de las elecciones presidenciales de 2020. Algunos creadores de de la plataforma tomaron la plataforma y transmitieron en vivo el ataque al Capitolio del 6 de enero de 2021. En 24 horas, la compañía comenzó a castigar a las personas que difundieron la mentira de que las elecciones de 2020 fueron robadas y revocó los privilegios de carga del presidente Donald J. Trump.

YouTube comprometió $15 millones para contratar a más de 100 moderadores de contenido adicionales para ayudar con las elecciones intermedias y las elecciones presidenciales en Brasil, y la compañía tiene más de 10,000 moderadores ubicados en todo el mundo, según una persona familiarizada con el asunto que no estaba autorizada. para discutir las decisiones de personal.

La compañía ha perfeccionado su algoritmo de recomendación para que la plataforma no sugiera videos políticos de fuentes no verificadas a otros espectadores, según otra persona familiarizada con el asunto. YouTube también creó una sala de guerra electoral que involucró a docenas de funcionarios y se ha estado preparando para eliminar rápidamente videos y transmisiones en vivo que violen sus políticas el día de las elecciones, dijo la persona.

Aún así, los investigadores argumentaron que YouTube podría haber sido aún más proactivo en la represión de las narrativas falsas que podrían seguir repercutiendo después de las elecciones.

La teoría de conspiración relacionada con las elecciones más destacada en YouTube ha sido la afirmación infundada de que algunos estadounidenses han hecho trampa al llenar los buzones con múltiples boletas. La idea surgió de un documental desacreditado y cargado de conspiraciones titulado “2000 Mulas”, que decía que Trump había perdido la reelección debido a los votos ilegales emitidos en los mails.

youtube 2.jpg

ISD examinó YouTube Shorts y encontró al menos una docena de ejemplos de videos cortos que se hicieron eco de las acusaciones de tráfico de boletas de “2000 Mulas”, sin etiquetas de advertencia que contrarresten la información errónea o proporcionen información electoral fidedigna, según los enlaces compartidos con The New York Times. . La audiencia de los videos varió ampliamente, desde unas pocas docenas de visitas hasta decenas de miles. Dos de los videos presentaban enlaces a la película en sí.

ISD encontró los videos a través de búsquedas de palabras clave. Su lista no pretendía ser exhaustiva, pero "estos pantalones cortos se identificaron con relativa facilidad, lo que demuestra que siguen siendo fácilmente accesibles", escribieron tres investigadores de ISD en un informe. Algunos de los videos muestran a hombres dirigiéndose a la cámara, en un automóvil o en una casa, promoviendo su fuerte creencia en la película. Otros videos promocionan el documental sin comentarios personales.

El grupo sin fines de lucro también analizó a los rivales de YouTube Shorts, TikTok e Instagram Reels, y descubrió que ambos también habían difundido tipos similares de información errónea.

La Sra. Craig, de ISD, dijo que los grupos sin fines de lucro como el suyo estaban trabajando arduamente antes del día de las elecciones para detectar y contrarrestar la información errónea que permanecía en las plataformas de redes sociales de los gigantes tecnológicos, a pesar de que esas empresas tienen miles de millones de dólares y miles de moderadores de contenido.

“Nuestros equipos están muy ocupados recogiendo el relevo de las entidades con buenos recursos que podrían estar haciendo este tipo de trabajo”, dijo. “Nuestros equipos están muy ocupados recogiendo el relevo de las entidades con buenos recursos que podrían estar haciendo este tipo de trabajo”, dijo.

Aunque los videos en YouTube Shorts no duran más de un minuto, son más difíciles de revisar que los videos más largos, según dos personas familiarizadas con el tema.

La empresa se basa en la inteligencia artificial para escanear lo que la gente ha subido a su plataforma. Algunos de los sistemas de inteligencia artificial funcionan en minutos y otros en horas, buscando señales de que algo anda mal con el contenido, dijo una de las personas. Los videos más cortos emiten menos señales que los más largos, dijo la persona, por lo que YouTube comenzó a trabajar en una solución que puede funcionar de manera más efectiva con su formato corto.

YouTube también ha tenido problemas para controlar la desinformación en español, según la investigación y el análisis de Media Matters y Equis, una organización sin fines de lucro enfocada en la comunidad latina.

Casi la mitad de los latinos han recurrido a youtube semanalmente para buscar noticias, más que cualquier otra plataforma de redes sociales, comentó Jacobo Licona, investigador de Equis. Y esos espectadores tienen acceso a una profusión de información errónea y propaganda política unilateral en la plataforma, dijo, con personas influyentes latinoamericanas con sede en países como México, Colombia y Venezuela que se meten en la política estadounidense.

Muchos de ellos han cooptado narrativas familiares, como afirmaciones falsas sobre personas muertas que votan en los Estados Unidos, y las han traducido al español.

En octubre, YouTube solicitó a un grupo que rastrea información errónea en español en el sitio acceso a sus datos de monitoreo, según dos personas familiarizadas con la solicitud. La empresa estaba buscando ayuda externa para vigilar su plataforma y al grupo le preocupaba que YouTube no hubiera hecho las inversiones necesarias en contenido en español, explicaron.

YouTube dijo que se comunicó con expertos en la materia para obtener más información antes de los exámenes parciales. También mencionó que había realizado inversiones significativas para combatir la desinformación dañina en todos los idiomas, incluido el español.

youtube 3.jpg

Kayla Gogarty, subdirectora de investigación de Media Matters, está preocupada por el impacto en el mundo real de la información errónea en YouTube.

YouTube tiene varios procesos laboriosos para moderar videos en español. La empresa cuenta con moderadores humanos que hablan español, que ayudan a enseñar los sistemas de inteligencia artificial que también examinan el contenido. Un método de IA ha consistido en transcribir videos y revisar el texto, dijo un empleado. Otro camino ha sido usar Google Translate para convertir la transcripción de español a inglés. Estos métodos no siempre han demostrado ser precisos debido a los modismos y la jerga, comentó la fuente.

YouTube dijo que sus sistemas también habían evaluado señales visuales, metadatos y texto en pantalla en videos en español y que su IA había podido aprender nuevas tendencias, como modismos y jerga en evolución.

En inglés, los investigadores han encontrado denuncias de fraude electoral de personalidades famosas con muchos seguidores, incluidos Charlie Kirk, Dinesh D'Souza (quien creó "2000 Mulas") y Tim Pool, una personalidad de YouTube con 1,3 millones de seguidores conocida por sembrar dudas sobre los resultados. de las elecciones de 2020 y cuestionar el uso de urnas.

“Una de las cosas más perturbadoras para mí es que las personas que miran las urnas son elogiadas y alentadas en YouTube”, dijo Kayla Gogarty, subdirectora de investigación de Media Matters, en una entrevista. “Ese es un ejemplo muy claro de algo que pasa de estar en línea a estar fuera de línea, lo que podría causar daños en el mundo real”.

Más noticias en Urgente24

A lo YouTube: TikTok suma el método de suscripción a su App

TikTok censura contenido y aumenta la propaganda del Kremlin

China cede: TikTok protegerá los datos de usuarios de EEUU

TikTok pierde un jefe por el avance de los juegos blockchain

FUENTE: The New York Times