ChatGPT • Banco de imagens/Pexels/Matheus Bertelli
Conversas privadas de usuários com o ChatGPT começaram a aparecer em resultados do Google, revelando conteúdos sensíveis e, em alguns casos, informações pessoais. A situação foi denunciada nesta semana pelo site Fast Company, que identificou mais de 4.500 links de bate-papos acessíveis via buscador.
Entre os casos encontrados, havia relatos íntimos como desabafos sobre vida sexual, transtorno de estresse pós-traumático (TEPT), além de experiências traumáticas ligadas à chamada “programação psicológica”. Essas conversas, embora realizadas em um ambiente aparentemente privado, acabaram se tornando públicas sem o pleno conhecimento dos usuários.
A exposição foi confirmada por Dane Stuckey, chefe de segurança da OpenAI, empresa responsável pelo ChatGPT, em publicação na rede social X (antigo Twitter). Segundo ele, a indexação indevida pode ter sido causada por um recurso recém-implementado chamado “Make this chat discoverable”(“Tornar este chat descobrível”, em tradução livre), que permitia que os bate-papos fossem localizados por mecanismos de busca.
“Acreditamos que esse recurso criou muitas oportunidades para as pessoas compartilharem acidentalmente coisas que não pretendiam, por isso estamos removendo a opção”, afirmou Stuckey. Ele explicou ainda que a empresa está trabalhando para remover todo o conteúdo já indexado e que a medida seria aplicada globalmente até a manhã de 1º de agosto.
O recurso foi classificado como um “experimento de curta duração” e, segundo Stuckey, tinha como objetivo permitir que usuários compartilhassem conversas úteis. No entanto, o vazamento acidental gerou um alerta sobre os riscos de exposição e uso inadequado da funcionalidade.
Especialistas em segurança digital apontam falhas tanto na forma como a ferramenta foi apresentada quanto no uso feito por parte dos usuários. “É possível que a forma de compartilhamento não tenha sido a mais segura. Mas não dá para afirmar com certeza se o problema foi esse ou se partiu de um descuido dos próprios usuários”, avalia Cleber Zanchettin, professor da Universidade Federal de Pernambuco (UFPE) e especialista em inteligência artificial.
O caso também evidenciou uma inconsistência de resposta da própria ferramenta. Questionado pelo g1, o ChatGPT negou inicialmente a possibilidade de divulgação de links de conversas. Porém, ao ser confrontado com a fala do chefe de segurança da OpenAI, reconheceu a falha.
A central de ajuda da OpenAI alerta que qualquer pessoa com acesso ao link compartilhado pode visualizar a conversa — e, portanto, recomenda que os usuários evitem divulgar conteúdos sensíveis. No Reddit, usuários chegaram a sugerir o uso do comando “site:chat.openai.com/share + [palavra-chave]” para encontrar conversas públicas ainda disponíveis no Google.
O episódio reacende o debate sobre privacidade digital e o uso responsável de tecnologias baseadas em inteligência artificial.