La bomba explotó y los usuarios se preguntan qué sucede con el derecho al resguardo de la privacidad e intimidad.

Bloomberg publicó que Facebook contrató empleados independientes para escuchar y analizar sistemáticamente los archivos de audio de los chats de Messenger, con el objetivo de transcribirlos.

Messenger es una aplicación de mensajería de vinculada a Facebook que cuenta con 1.300 millones de usuarios a nivel global.

Luego de las revelaciones, Facebook confirmó la información pero afirmó que ya no están transcribiendo el audio.

“Al igual que Apple y Google, detuvimos la revisión humana del audio hace más de una semana”, dijo Facebook a Bloomberg.

El gigante de las redes sociales dijo que los usuarios podrían elegir la opción de transcribir sus chats de voz en la aplicación Messenger de Facebook.

El argumento esgrimido por la compañía es que los contratistas estaban probando la tecnología de inteligencia artificial para asegurarse de que los mensajes se transcribieran correctamente de voz a texto.

Al respecto, Mark Zuckerberg señaló en una entrevista que el sistema de Facebook es capaz de “detectar lo que está sucediendo” en la aplicación Messenger.

Agregó que cuando se encuentran “mensajes sensacionalistas”, estos son detenidos para que no sean publicados ni lleguen a su destinatario.

Entonces, la compañía le dijo a Bloomberg que, aunque las conversaciones de Messenger se consideran privadas, “Facebook las escanea y usa las mismas herramientas para evitar abusos allí, de la manera en la que lo hace en la red social en general”.

La compañía señaló que todo el contenido del sitio debe ajustarse a idénticos “estándares comunitarios”.

Los usuarios pueden reportar mensajes que parecen estar en contra de estos estándares, en cuyo caso el equipo de “operaciones comunitarias” de la compañía realiza una revisión.

Otras veces, las herramientas automatizadas también se encargan de revisarlos.

“En Messenger, cuando se envía una fotografía, nuestros sistemas automatizados la escanean usando la tecnología de photo matching, para detectar, por ejemplo, imágenes de explotación infantil. O cuando se envía un link, lo escaneamos en busca de malware o virus”, dijo una portavoz de Facebook Messenger.

“Facebook diseñó estas herramientas automatizadas para que podamos detener rápidamente el comportamiento abusivo en nuestra plataforma”, explicó.

Mirá las Noticias Destacadas