Meta en el ojo de la tormenta: denuncian que sus nuevas gafas son la herramienta perfecta para "stalkers"
70 organizaciones denuncian que las gafas de Meta destruyen el anonimato y facilitan el acoso. Conocé cómo funciona la tecnología que ya genera miedo.
14 de abril de 2026 - 11:10
Más de 70 organizaciones de derechos civiles, violencia doméstica, derechos reproductivos, LGBTQ+, laborales e inmigrantes enviaron una carta urgente a Mark Zuckerberg. Según WIRED, le exigen que Meta abandone por completo sus planes de agregar reconocimiento facial a las gafas inteligentes Ray-Ban y Oakley.
La función, conocida internamente como "Name Tag", usaría la IA integrada para que quien use las gafas pueda identificar al instante a cualquier persona que tenga a la vista.
La coalición, que incluye a la ACLU, el Electronic Privacy Information Center (EPIC), Fight for the Future y Access Now, considera que esta tecnología es demasiado peligrosa para salir al mercado.
Nombre, apellido y perfil: así es "Name Tag", la función para escanear desconocidos con la mirada
La función estaría integrada en el asistente de IA de las gafas. Al mirar a alguien, el usuario podría obtener información sobre esa persona de inmediato.
Según documentos internos revelados por The New York Times en febrero, Meta estaría evaluando dos versiones:
Una limitada: solo identificaría a personas que el usuario ya tiene agregadas en Facebook, Instagram u otras plataformas de Meta.
Otra más amplia: reconocería a cualquiera que tenga una cuenta pública en Instagram u otro servicio de Meta.
El problema, según las organizaciones, es que las gafas son discretas. Un peatón común no tendría forma real de saber que está siendo escaneado ni de dar su consentimiento. Además, las gafas ya pueden grabar video y audio de forma casi invisible, con solo una pequeña luz que es fácil de ocultar.
Meta-ray-ban
Sin Name Tag, las gafas de Meta ya pueden grabar audio y video de forma casi indetectable. El reconocimiento facial es el último paso para el fin del anonimato en espacios públicos.
Acosadores y vigilancia masiva: por qué las organizaciones dicen que Meta "armó" a los depredadores
Los grupos advierten que el “Name Tag” sería una herramienta perfecta para acosadores, abusadores y agentesfederales. Permitiría identificar en segundos a víctimas de violencia doméstica, inmigrantes, activistas o personas LGBTQ+ en la calle, en protestas, clínicas, iglesias o grupos de apoyo.
También piden a Meta que revele si ya hubo casos de acoso o violencia doméstica usando sus gafas actuales y que informe sobre cualquier conversación con agencias como ICE o CBP (inmigración y aduanas de EE.UU.).
Según la coalición, ningún cambio de diseño, opción de “opt-out” ni salvaguarda incremental puede solucionar el problema: el reconocimiento facial en gafas cotidianas destruye la privacidad y el anonimato en espacios públicos.
De las multas récord a las promesas rotas: el oscuro historial de Zuckerberg con tus datos biométricos
Meta ya tuvo que cerrar su sistema de reconocimiento facial en Facebook en 2021. En ese momento borró las plantillas de más de mil millones de usuarios y pagó miles de millones de dólares en multas y juicios por violar la privacidad (incluyendo 5.000 millones a la FTC en 2019 y acuerdos en Illinois y Texas).
Ahora, los grupos recuerdan que Meta prometió entonces “alejar la empresa de este tipo de identificación masiva” y trabajar con la sociedad civil. Sin embargo, los documentos internos muestran que la compañía planea avanzar igual, aprovechando el momento político.
¿Cuál es el veredicto de los expertos? El límite que Meta no puede cruzar si quiere proteger tu privacidad
Las 70 organizaciones piden a Meta que descarte completamente “Name Tag”, que sea transparente sobre usos indebidos de sus gafas y que consulte a expertos en privacidad antes de sumar cualquier identificación biométrica a sus dispositivos.
Las gafas inteligentes ya permiten grabar en secreto. Agregar reconocimiento facial las convertiría en una herramienta de vigilancia masiva al alcance de cualquiera. Para las víctimas de abuso y grupos vulnerables, el riesgo es demasiado alto.