

Um novo recurso em testes nos aplicativos do Facebook e Instagram está gerando preocupação entre especialistas em privacidade digital. Chamado de “Cloud Processing” (ou Processamento em Nuvem), o sistema propõe analisar automaticamente fotos armazenadas no celular do usuário — mesmo que nunca tenham sido publicadas nas redes sociais.
Usuários relataram que, ao tentar criar uma nova história no Facebook, foram surpreendidos por sugestões de colagens e efeitos gerados por inteligência artificial com base em imagens privadas do rolo da câmera. Para isso, o app solicita acesso contínuo à galeria de fotos, sob a justificativa de oferecer experiências criativas e personalizadas.
Ao ativar o recurso, o usuário concorda com os termos de uso da Meta AI, que permitem a análise de rostos, objetos, metadados e a possibilidade de retenção dessas informações. Embora a Meta afirme que, neste momento, as imagens não estão sendo usadas para treinar modelos de IA generativa, a empresa não descarta essa prática no futuro.
Além disso, relatos de internautas indicam que fotos antigas já foram reestilizadas com filtros automatizados — sem solicitação prévia. Em um dos casos, imagens de um casamento foram modificadas com filtros inspirados em animações japonesas.
Para especialistas, trata-se de um novo e preocupante patamar de coleta de dados sensíveis. “É a primeira vez que uma Big Tech tenta contornar o ato consciente de publicar algo. O acesso direto ao rolo da câmera abre precedentes graves para a privacidade individual”, alerta um pesquisador de segurança digital.
Usuários que desejarem impedir o uso de suas imagens podem seguir os seguintes passos:
Acesse as configurações do app do Facebook no celular;
Desative a opção “Cloud Processing”;
Restrinja o acesso à galeria de fotos nas permissões do sistema;
Segundo a Meta, imagens já armazenadas serão removidas em até 30 dias após a desativação do recurso.
Desde 2007, a Meta já utiliza postagens públicas para treinar seus modelos de inteligência artificial. O diferencial agora é o uso potencial de fotos privadas, com rostos de familiares, amigos e crianças — imagens que o usuário jamais publicou.
Em um cenário de avanço acelerado da IA, cresce a necessidade de vigilância sobre como, quando e por quem nossas informações mais íntimas são utilizadas.





