
Segundo a Microsoft, nenhum dado de cliente foi exposto. Foto: Depositphotos
Um funcionário da Microsoft expôs 38 terabytes de dados privados da empresa ao publicar, acidentalmente, um conjunto de dados de treinamento de inteligência artificial de código aberto no GitHub, uma plataforma de hospedagem de código-fonte.
Revelado pelo The , o jornal afirma que o vazamento foi detectado por pesquisadores de segurança da Wiz, empresa de segurança e conformidade em nuvem.
Conforme os pesquisadores, os dados vazados continham chaves privadas, senhas, dados de backup das estações de trabalho de dois funcionários e mais de 30 mil mensagens internas do Microsoft Teams de 359 funcionários.
Segundo a Microsoft, os backups dos computadores pessoais pertenciam a dois ex-funcionários.
“Nenhum dado de cliente foi exposto e nenhum outro serviço interno foi colocado em risco por causa deste problema. Nenhuma ação do cliente é necessária em resposta a este problema”, declara a equipe do Microsoft Security Response Center.
Os pesquisadores detalharam que encontraram um repositório da equipe de pesquisa de IA da Microsoft. Nele, estava disponível uma URL com token de de o compartilhado (SAS, na sigla em inglês) com permissões excessivas.
O token estava configurado com permissões de controle total dos dados, ou seja, qualquer pessoa que asse os dados poderia tanto visualizar tudo na conta de armazenamento, quanto alterar e excluir arquivos.
“A Microsoft também está fazendo melhorias contínuas em nosso conjunto de ferramentas de detecção e verificação para identificar proativamente esses casos de URLs SAS superprovisionados e reforçar nossa postura segura por padrão”, afirma a empresa.