.png?w=730)
Empresa badalada está em apuros (Foto: Depositphotos)
A Comissão Federal de Comércio dos Estados Unidos (FTC, na sigla em inglês), órgão semelhante ao Programa de Proteção e Defesa do Consumidor (Procon), iniciou uma investigação contra a OpenAI, dona do ChatGPT, sob a suspeita de que a ferramenta tem causado danos reputacionais a pessoas.
Segundo o Washington Post, a agência enviou à companhia uma ordem de 20 páginas solicitando registros sobre os riscos relacionados aos seus modelos de inteligência artificial.
A demanda é seguida por diversos alertas do órgão sobre a aplicação das leis de proteção ao consumidor do país sobre tecnologias de inteligência artificial, mesmo diante da dificuldade do estabelecimento de novas regulamentações referentes ao assunto.
Além disso, a agência exigiu que a OpenAI providencie descrições detalhadas de todas as reclamações que já recebeu acerca de seu produto “realizar afirmações falsas, errôneas, depreciativas e prejudiciais” sobre pessoas, ferindo suas reputações.
Em um dos casos divulgados na imprensa, um apresentador de um programa de rádio dos Estados Unidos chegou a processar a startup por difamação, alegando que o ChatGPT inventou declarações falsas de que o radialista defraudou e desviou recursos de uma fundação.
Por fim, o órgão pede que a OpenAI forneça registros relacionados a um bug de segurança em seu sistema, que teria vazado informações de pagamentos e os históricos de uso do chat de usuários.
A partir disso, a FTC busca entender como a inteligência artificial da empresa é treinada e o que leva a tecnologia a fornecer informações falsas ou prejudiciais.
A publicação afirma que, caso a FTC decida que a companhia violou normas, a OpenAI poderá ser submetida a multas “salgadas”. Outra possível sanção seria a definição de um decreto de consentimento, que ditaria como a empresa deve cuidar dos dados sob sua responsabilidade.
DESCONFIANÇA DO MERCADO
A FTC não é a única a demonstrar preocupação com o uso da inteligência artificial.
Em março deste ano, diversos executivos do Vale do Silício, entre eles Elon Musk, pediram que laboratórios de inteligência artificial suspendam por ao menos seis meses o desenvolvimento de novos sistemas superiores ao GPT-4, software mais recente do ChatGPT.
O apelo afirmava que “sistemas de IA com inteligência competitiva-humana podem representar um profundo risco para a sociedade e humanidade, como mostrado por extensas pesquisas e reconhecido pelos maiores laboratórios de IA”, uma vez que poderiam “gerar profundas mudanças na história da vida na Terra e deveriam ser planejados e gerenciados com cuidados e recursos proporcionais”.
Segundo a carta, esse nível de planejamento e gerenciamento não está acontecendo, mesmo diante da corrida entre laboratórios de inteligência artificial para desenvolver e lançar tecnologias cada vez mais poderosas que “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar”.
Ao longo dos meses, diversas empresas proibiram ou alertaram seus funcionários sobre os usos da tecnologia.
A Apple, por exemplo, tomou a decisão em busca de proteger sua propriedade intelectual, especialmente, diante do fato de que a Microsoft, uma de suas concorrentes, ou a investir na OpenAI em janeiro deste ano.
Já a Samsung optou por desenvolver sua própria inteligência artificial para uso interno após seus funcionários usarem o ChatGPT para trabalhar com informações confidenciais.
A Walmart também deu um puxão de orelha em seus funcionários em um comunicado interno referente ao compartilhamento de informações sensíveis da companhia com inteligências artificiais como o ChatGPT.
A Microsoft não ficou atrás e disse aos colaboradores que podem usar a tecnologia no trabalho, desde que não comprometam informações sensíveis. A JP Morgan também optou por restringir temporariamente o ChatGPT na companhia.