.jpg?w=730)
Foto: Deposit Photos.
A Autoridade Nacional de Proteção de Dados (ANPD) emitiu nesta terça-feira, 2, uma medida preventiva para a suspensão imediata da aplicação da nova política de privacidade da Meta, que autoriza o uso de dados pessoais publicados por brasileiros em suas plataformas para o treinamento de tecnologias de inteligência artificial.
Segundo a instituição, a política viola a Lei Geral de Proteção de Dados (LGPD) e havia entrado em vigor no último dia 26, se aplicando a fotos e textos compartilhados no Facebook, no Messenger e no Instagram.
A medida da ANPD foi definida depois de o Instituto de Defesa de Consumidores (Idec) alertar a ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho istrativo de Defesa Econômica (Cade) sobre a prática.
Segundo aponta o g1, o uso dos dados em questão viola leis brasileiras porque os usuários não foram avisados de antemão e pode haver uma vantagem excessiva para a empresa.
Caso os usuários se opusessem aos termos, eram impostos diversos obstáculos injustificados para impedi-los de exercer seus direitos.
A ANPD detalha que a decisão se baseia no “uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente íveis sobre a alteração da política e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas”.
Assim que for intimada, a Meta terá cinco dias para apresentar ao governo uma documentação que ateste a mudança da política, excluir o trecho sobre o uso de dados pessoais para treinar IA generativa e uma declaração assinada por um representante legal atestando que o uso dos dados foi suspenso.
A cada dia que a determinação for desrespeitada, a big tech deverá pagar uma multa de R$ 50 mil.
Em comunicado, a Meta disse que a medida é um retrocesso para a inovação e a competitividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil.
"Treinamento de IA não é algo único dos nossos serviços e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas”, publicou a empresa.