‘Peligroso e imprudente’: las gafas Ray-Ban ‘Smart’ de Meta exponen datos confidenciales
Una amplia coalición de grupos de la sociedad civil la semana pasada enviaron cartas a Meta, la empresa matriz de Ray-Ban, EssilorLuxottica, la Casa Blanca, la Comisión Federal de Comercio (FTC) de EE. UU, el Departamento de Justicia y a altos funcionarios federales instándolos a detener los planes para integrar el software de reconocimiento facial en las gafas inteligentes de Meta Ray-Ban.
Sesenta y cuatro grupos de defensa del consumidor, liderados por la Federación de Consumidores de Estados Unidos y Ultraviolet Action, advirtieron que integrar el reconocimiento facial en las gafas es un plan “peligroso e imprudente que perjudicará tanto a los usuarios como a todo el público”
“Esta medida nos pondrá en peligro a todos y, en particular, dará munición a estafadores, chantajistas, acosadores, abusadores de niños y regímenes autoritarios”, afirma la carta. “También crearía riesgos agudos e innecesarios para la seguridad nacional.”
La carta sigue a una investigación reciente por los medios suecos Svenska Dagbladet y Göteborgs-Posten, que revelaron que se contrataron contratistas en Kenia para capacitar a Meta inteligencia artificial La tecnología de gafas (IA) procesa rutinariamente datos personales confidenciales de los usuarios —sin que los usuarios’ tengan conocimiento.
El mes pasado, los senadores Ron Wyden y Jeff Merkley enviaron por separado una carta al director ejecutivo de Meta Mark Zuckerberg exigiendo que Meta explique sus planes de agregar reconocimiento facial a las gafas inteligentes Ray-Ban.
Los senadores fijaron el 6 de abril como fecha límite para una respuesta. No está claro si Meta ya ha respondido. Ni las oficinas de senadores’ ni Meta respondieron a las solicitudes de comentarios.
‘Etiqueta de nombre’, la función de las gafas de Meta que plantea riesgos de seguridad y privacidad
Meta planea lanzar la nueva función en gafas vendidas en EE. UU. a finales de este año El New York Times reportado. La función “Etiqueta de nombre” permite a los usuarios identificar personas con cuentas públicas de Meta y recuperar información sobre ellas a través del asistente de inteligencia artificial de Meta.
Según se informa, la función debe ser activada por el usuario a través de un comando de voz o presionando un botón.
El Times revisó documentos internos que revelaban que debido a que la compañía sabía que la función conlleva “riesgos de seguridad y privacidad”, planeaba lanzarla por primera vez en una conferencia para asistentes ciegos.
Un memorando interno también decía que la agitación política en Estados Unidos proporcionó un momento favorable para la publicación.
“Nos lanzaremos durante un entorno político dinámico donde muchos grupos de la sociedad civil que esperaríamos que nos atacaran tendrían sus recursos enfocados en otras preocupaciones”, se lee en un documento interno de Meta.
Incluso sin la función de reconocimiento facial, las gafas inteligentes de Meta han tenido éxito comercial. EssilorLuxottica informó que vendió más de 7 millones de pares el año pasado, según el Times.
Anteriormente, la empresa pagaba grandes multas por recopilar datos faciales de los usuarios sin permiso. Ha pagado 2.000 millones de dólares para resolver demandas Illinois y Texas, y en 2019 pagó 5.000 millones de dólares a la FTC resolver cargos de violación de la privacidad del usuario, incluida la recopilación no autorizada de datos faciales.
Los contratistas kenianos dicen que habitualmente ven datos íntimos
El Investigación sueca reveló que gran parte de las imágenes que graban las gafas de inteligencia artificial de Ray-Ban son revisadas por anotadores de datos humanos que trabajan para empresas de subcontratación como Sama en Nairobi, Kenia.
Estos trabajadores revisan imágenes, videos y audio recopilados a través de las gafas para ayudar a entrenar los sistemas de inteligencia artificial de Meta.
Según entrevistas con más de 30 empleados, el material que procesan puede incluir contenido altamente sensible e íntimo— que va desde conversaciones privadas hasta imágenes explícitas.
“En algunos videos se puede ver a alguien yendo al baño o desnudándose”, dijo un trabajador. “No creo que lo sepan, porque si lo supieran no estarían grabando.”
Otros describieron haber revisado clips que mostraban desnudez, actividad sexual e información financiera, como tarjetas bancarias visibles. Un trabajador resumió el alcance sin rodeos: “Vemos de todo — desde salas de estar hasta cuerpos desnudos”
Los trabajadores también dijeron que los usuarios pueden grabarse a sí mismos sin darse cuenta.
Como dijo un anotador: “Crees que si supieran el alcance de la recopilación de datos, nadie se atrevería a usar las gafas”.
Los términos de privacidad de Meta ocultan cuántos datos recopilan y transmiten las gafas
Los investigadores dijeron que cuando compraron las gafas ellos mismos, en los términos de servicio se indicó que la compañía trata la privacidad como una prioridad, con términos que establecen que las grabaciones de voz se utilizarán para entrenar los productos Meta solo si el consumidor está activamente de acuerdo.
Aunque los términos de Meta establecen que algunos datos pueden ser revisados por humanos, los expertos argumentan que los límites entre el intercambio voluntario y la recopilación automática de datos no están claros.
Abogado de protección de datos Kleanthi Sardeli, que ha presentado varias demandas contra Meta, dijo a los investigadores suecos que los usuarios pueden no darse cuenta cuando comienza la grabación, particularmente cuando activan el asistente de IA por voz.
Petter Flink, especialista en seguridad del regulador de privacidad de Suecia, señaló que la mayoría de los usuarios tienen poca comprensión de lo que sucede detrás de escena una vez que comienzan a usar dichos dispositivos.
Los datos que recopila Meta son más valiosos que las gafas, dijo Flink.
La investigación también encontró una confusión generalizada entre los minoristas que venden las gafas. El personal minorista a menudo les decía a los clientes que los datos permanecían en el dispositivo o que compartirlos era opcional.
Sin embargo, las pruebas técnicas realizadas por los periodistas demostraron que las gafas se comunican frecuentemente con servidores Meta y no pueden funcionar completamente sin enviar datos para su procesamiento.
Meta dice que existen salvaguardas — los contratistas dicen que no siempre funcionan
Meta dijo que los datos confidenciales no están destinados al entrenamiento de IA y que existen medidas de seguridad como el desenfoque facial.
Pero tanto los ex empleados como los anotadores actuales dicen que estas protecciones no siempre son efectivas.
“Los algoritmos a veces fallan”, dijo un ex trabajador de Meta, señalando que los rostros y los cuerpos pueden permanecer visibles bajo ciertas condiciones.
Los anotadores dicen que están sujetos a estrictos acuerdos de confidencialidad y que tienen una capacidad limitada para cuestionar el material que revisan.











