Browsing Category

Tecnologia

Segurança, Tecnologia

Um informante revela quais modelos de Pixel são vulneráveis ​​à invasão de celulares pela Cellebrite



Apesar de serem um vasto repositório de informações pessoais, os smartphones costumavam ter pouca segurança. Felizmente, isso mudou, mas empresas como a Cellebrite oferecem ferramentas para as forças de segurança que podem contornar a segurança de alguns dispositivos. A empresa mantém os detalhes em segredo, mas um indivíduo anônimo acessou recentemente uma apresentação da Cellebrite e obteve uma lista de quais telefones Pixel do Google são vulneráveis ​​à invasão de dados pela Cellebrite.

Essa pessoa, que usa o pseudônimo rogueFed, publicou capturas de tela da recente reunião do Microsoft Teams nos fóruns do GrapheneOS (conforme noticiado pelo 404 Media). O GrapheneOS é um sistema operacional baseado em Android que pode ser instalado em alguns telefones, incluindo os Pixels. Ele vem com recursos de segurança aprimorados e sem os serviços do Google. Devido à sua popularidade entre os usuários preocupados com a segurança, a Cellebrite aparentemente sentiu a necessidade de incluí-lo em sua matriz de suporte para telefones Pixel.

A captura de tela inclui dados sobre as famílias Pixel 6, Pixel 7, Pixel 8 e Pixel 9. Não lista a série Pixel 10, lançada há apenas alguns meses. O suporte aos telefones é dividido em três condições diferentes: antes do primeiro desbloqueio, após o primeiro desbloqueio e desbloqueado. O estado “antes do primeiro desbloqueio” (BFU) significa que o telefone não foi desbloqueado desde a reinicialização, portanto, todos os dados estão criptografados. Este é tradicionalmente o estado mais seguro para um telefone. No estado “após o primeiro desbloqueio” (AFU), a extração de dados é mais fácil. E, naturalmente, um telefone desbloqueado deixa seus dados completamente expostos.

Pelo menos de acordo com a Cellebrite, o GrapheneOS é mais seguro do que o software padrão oferecido pelo Google. A empresa informa às forças de segurança nessas apresentações que sua tecnologia pode extrair dados dos telefones Pixel 6, 7, 8 e 9 nos estados desbloqueado, AFU e BFU com o software original. No entanto, não consegue forçar a quebra de senhas para obter controle total do dispositivo. O informante também observa que as forças de segurança ainda não conseguem copiar um eSIM de dispositivos Pixel. Vale ressaltar que a série Pixel 10 está abandonando os cartões SIM físicos.

Para esses mesmos telefones executando o GrapheneOS, a polícia terá muito mais dificuldade. A tabela da Cellebrite indica que os Pixels com GrapheneOS só são acessíveis quando executam software anterior ao final de 2022 — tanto o Pixel 8 quanto o Pixel 9 foram lançados depois disso. Telefones nos estados BFU e AFU estão seguros contra o Cellebrite em versões atualizadas, e, a partir do final de 2024, até mesmo um dispositivo GrapheneOS totalmente desbloqueado é imune à cópia de seus dados. Um telefone desbloqueado pode ser inspecionado de diversas outras maneiras, mas a extração de dados, neste caso, limita-se ao que o usuário pode acessar.

O responsável pelo vazamento original afirma ter participado de duas chamadas até o momento sem ser detectado. No entanto, o usuário rogueFed também mencionou o nome do organizador da reunião (a segunda captura de tela, que não estamos republicando). É provável que o Cellebrite esteja agora monitorando os participantes das reuniões com mais atenção.

Entramos em contato com o Google para perguntar por que uma ROM personalizada criada por uma pequena organização sem fins lucrativos é mais resistente à invasão de telefones por ferramentas industriais do que o sistema operacional oficial do Pixel. Atualizaremos este artigo caso o Google se manifeste.



Inovação, Tecnologia

Após o lançamento confuso de uma atualização de driver, a AMD afirma que as GPUs antigas ainda são ativamente suportadas



Na semana passada, a AMD lançou a versão 25.10.2 do seu pacote de drivers Adrenalin para GPUs Radeon. Parecia um lançamento de driver relativamente rotineiro, com uma lista típica de correções de bugs e melhorias de desempenho em jogos, exceto por um anúncio que o acompanhava: a AMD afirmou na ocasião que passaria o suporte para as GPUs das séries Radeon RX 5000 e 6000 (e suas arquiteturas RDNA 1 e RDNA 2) para o “modo de manutenção”. Isso significava que várias GPUs, incluindo algumas placas de vídeo dedicadas lançadas recentemente, em 2022, não receberiam mais novas correções e otimizações de desempenho para jogos recém-lançados.

Conforme relatado pelo Tom’s Hardware, a AMD divulgou várias declarações para esclarecer a situação e lidar com a repercussão negativa, afirmando que essas GPUs mais antigas ainda receberiam “novos recursos, correções de bugs e otimizações de jogos” com base nas “necessidades do mercado”. Isso aparentemente não acalmou as reclamações, pois a AMD então fez uma publicação separada para confirmar que o lançamento do driver 25.10.2 “não representa o fim do suporte para RDNA 1 e RDNA 2”, e que as GPUs integradas e dedicadas baseadas nessas arquiteturas continuariam a receber “suporte para jogos em novos lançamentos”, “estabilidade e otimizações de jogos” e “correções de segurança e bugs”.

A AMD confirmou que essas arquiteturas de GPU mais antigas foram transferidas para um caminho de driver separado, mas a empresa afirma que isso tem como objetivo evitar que correções e recursos destinados às GPUs mais recentes baseadas em RDNA 3 e RDNA 4 causem problemas inadvertidamente para as GPUs RDNA 1 e RDNA 2.

“Esses produtos [séries RX 5000 e RX 6000] agora se beneficiam de um ramo de driver dedicado e estável, construído com base em anos de ajustes e otimizações”, afirma a publicação da AMD. “Essa abordagem ajuda a proporcionar uma experiência mais fluida e consistente para seus jogos, ao mesmo tempo que protege as GPUs de gerações anteriores de mudanças rápidas projetadas para arquiteturas mais recentes… Ao separar os caminhos de código, nossos engenheiros podem avançar mais rapidamente com novos recursos para RDNA 3 e RDNA 4, mantendo o RDNA 1 e o RDNA 2 estáveis ​​e otimizados para jogos atuais e futuros.” As notas de lançamento da versão 25.10.2 do Adrenalin também removeram o Windows 10 da lista de “sistemas operacionais compatíveis”, listando apenas o Windows 11 21H2 e versões posteriores. No entanto, a AMD confirmou ao Windows Latest que os pacotes de drivers ainda oferecerão suporte ao Windows 10 em um futuro próximo. A empresa afirmou que o sistema operacional não está listado nas notas de lançamento porque a Microsoft tecnicamente encerrou o suporte ao Windows 10, mas usuários domésticos que executam o Windows 10 em seus PCs podem obter um ano extra de patches de segurança com relativa facilidade. A Microsoft continuará a fornecer suporte para o sistema operacional em empresas, escolas e outras grandes organizações até pelo menos 2028.

Por que toda essa confusão?
Seria ruim se a AMD interrompesse ou reduzisse o suporte para as GPUs Radeon das séries 5000 e 6000, visto que a Nvidia continua a oferecer suporte às placas de vídeo GeForce RTX das séries 20 e 30, lançadas no mesmo período, entre 2019 e 2022. Mas o fim do suporte poderia ter sido ainda pior para consoles portáteis para jogos e PCs de baixo custo com gráficos integrados.

A arquitetura RDNA 2, em particular, tem desfrutado de uma longa e contínua vida útil como GPU integrada, inclusive para sistemas que são explicitamente comercializados e vendidos como PCs para jogos. E como muitos dos chips de baixo custo da AMD e da Intel são apenas versões renomeadas de silícios mais antigos, a AMD continua a lançar “novos” produtos com GPUs RDNA 2. A arquitetura RDNA 2 é a que a Valve usa no Steam Deck desde 2022, por exemplo, mas a série ROG Xbox Ally, recém-lançada pela Microsoft e pela Asus, também inclui uma GPU RDNA 2 no modelo de entrada.

A última vez que a AMD reduziu formalmente o suporte a drivers de GPU foi em 2023, quando moveu os drivers para suas arquiteturas de GPU Polaris e Vega para um pacote separado que receberia apenas “atualizações críticas” ocasionais. Naquela época, a AMD havia lançado sua última GPU dedicada baseada em Vega apenas quatro anos antes, e muitos processadores de desktop e laptop de baixo custo ainda eram fornecidos com GPUs integradas baseadas em Vega.

Para o Steam Deck e outros sistemas SteamOS e Linux, pelo menos, parece que as coisas não estão realmente mudando, independentemente do que aconteça com os drivers do Windows. O Phoronix destaca que o pacote de drivers Linux para as GPUs da AMD sempre foi mantido separadamente dos drivers para Windows e que arquiteturas de GPU consideravelmente mais antigas do que a RDNA 1 continuam a receber suporte oficial e melhorias ocasionais.



Notícias, Tecnologia

Os vazamentos mais estranhos do ChatGPT até agora: registros de bate-papo constrangedores encontrados na ferramenta de análise do Google.



Durante meses, conversas extremamente pessoais e sensíveis do ChatGPT têm vazado para um destino inesperado: o Google Search Console (GSC) — uma ferramenta que desenvolvedores normalmente usam para monitorar tráfego de busca, não para bisbilhotar conversas privadas.

Normalmente, quando administradores de sites acessam os relatórios de desempenho do GSC, eles veem consultas baseadas em palavras-chave ou frases curtas que os usuários digitam no Google para encontrar conteúdo relevante. Mas, a partir de setembro, consultas estranhas — às vezes com mais de 300 caracteres — começaram a aparecer no GSC. Exibindo apenas as entradas dos usuários, essas consultas pareciam vir de pessoas desavisadas pedindo ajuda a um chatbot para resolver problemas de relacionamento ou de negócios, acreditando que suas conversas permaneceriam privadas.

Jason Packer, dono da consultoria analítica Quantable, foi um dos primeiros a denunciar o problema em um blog detalhado no mês passado.

Determinado a descobrir a causa do vazamento, ele se uniu ao “detetive da Internet” e consultor de otimização web Slobodan Manić. Juntos, eles realizaram testes que acreditam ter revelado “a primeira prova definitiva de que a OpenAI está raspando (scraping) diretamente o Google Search com prompts reais de usuários”. A investigação deles sugeriu que a empresa estaria comprometendo a privacidade dos usuários para manter o engajamento, capturando dados de busca que o Google normalmente não compartilharia.

A OpenAI recusou o pedido do site Ars Technica para confirmar se a teoria apresentada por Packer e Manić era verdadeira ou responder outras perguntas que ajudariam a dimensionar o problema.

Contudo, um porta-voz da OpenAI confirmou que a empresa estava “ciente” do problema e que já havia resolvido uma falha temporária que “afetou o roteamento de um pequeno número de consultas de busca”.

Packer disse ao Ars que ficou “muito satisfeito por a OpenAI ter resolvido o problema rapidamente”, mas destacou que a resposta não confirmou se a empresa realmente estava raspando o Google, deixando dúvidas se o problema foi de fato solucionado.
O Google se recusou a comentar.

“Mais estranho” do que os vazamentos anteriores do ChatGPT

A primeira consulta anômala que Packer encontrou no GSC parecia vir de uma mulher pedindo ajuda ao ChatGPT para interpretar o comportamento de um rapaz que a provocava — tentando descobrir se ele gostava dela. Outra consulta vinha aparentemente de uma gerente de escritório compartilhando informações empresariais ao planejar o retorno ao trabalho presencial.

Esses foram apenas dois de cerca de 200 prompts estranhos — incluindo “alguns bem malucos”, disse Packer — que ele encontrou em apenas um site. Em seu blog, ele concluiu que as consultas deveriam servir como “um lembrete de que seus prompts não são tão privados quanto você imagina”.

Packer suspeitou que esses vazamentos estavam ligados a uma reportagem do site The Information, publicada em agosto, segundo a qual a OpenAI estaria raspando resultados de busca do Google para alimentar respostas do ChatGPT, especialmente sobre eventos atuais.

A OpenAI nunca confirmou se realiza scraping das páginas de resultados do Google (SERPs), mas Packer acredita que suas descobertas são evidências de que a empresa não apenas coleta dados das SERPs, como também envia prompts de usuários ao Google Search.

Manić ajudou a resolver uma parte crucial do mistério: ele descobriu que as consultas estranhas apareciam em sites que tinham bom ranqueamento no Google para a URL
https://openai.com/index/chatgpt/ — o mesmo endereço que precedia todos os prompts vazados.

O Google aparentemente havia “tokenizado” a URL, transformando-a em uma busca pelos termos “openai + index + chatgpt”. Assim, sites com bom posicionamento para essas palavras-chave eram mais propensos a receber vazamentos do ChatGPT em seus relatórios do GSC. O Ars confirmou esse padrão.

Packer destacou: “Não se confunda — esse é um erro completamente diferente daquele em que o Google estava indexando conversas públicas do ChatGPT. É mais estranho, embora talvez não tão grave.”

Como os vazamentos podem ter acontecido

Não está claro o que exatamente a OpenAI corrigiu, mas Packer e Manić acreditam que o bug envolvia um campo de prompt defeituoso no site do ChatGPT. Esse erro fazia com que “a URL da página fosse adicionada ao prompt”.

O problema, explicaram, é que o ChatGPT (versão 5) realiza buscas na web quando julga necessário — especialmente em consultas recentes ou específicas. Mas esse campo defeituoso continha o parâmetro hints=search, fazendo com que ele sempre realizasse uma busca.

Assim, o ChatGPT acabava enviando ao Google a consulta completa do usuário, precedida por
https://openai.com/index/chatgpt/. Segundo Packer, isso prova que o ChatGPT não usou uma API privada, mas sim raspou diretamente o Google, já que esses dados só aparecem no GSC quando são provenientes de pesquisas reais.

Isso implica que a OpenAI compartilhou os prompts de usuários com o Google e com qualquer site listado nos resultados de busca, algo que Packer resumiu como: “Yikes.”

Para ele, todos os prompts que acionaram buscas do Google nos últimos dois meses podem ter sido expostos.

A OpenAI afirmou que apenas “um pequeno número” de consultas foi afetado, mas se recusou a fornecer números. Assim, ainda não se sabe quantos dos 700 milhões de usuários semanais do ChatGPT tiveram suas mensagens redirecionadas ao GSC.

Resposta da OpenAI deixa “perguntas persistentes”

Depois que conversas do ChatGPT foram encontradas no índice do Google em agosto, a OpenAI explicou que isso ocorreu porque os usuários haviam clicado em uma opção para tornar as conversas públicas — algo que a empresa considerava “suficientemente claro”.
Mas, no novo caso, ninguém clicou em nada.

“Será que a OpenAI foi tão rápida que não considerou as implicações de privacidade, ou simplesmente não se importou?”, questionou Packer em seu blog.

O mais preocupante, para alguns usuários, é que não há como remover as conversas vazadas do GSC, ao contrário do incidente anterior.

Packer e Manić dizem ainda ter “dúvidas persistentes” sobre o alcance da correção. Manić esperava que a OpenAI confirmasse se os prompts digitados em https://chatgpt.com que acionam buscas também foram afetados — mas não recebeu resposta.

Para ele, há indícios de que o scraping da OpenAI pode estar contribuindo para o problema conhecido como “boca de crocodilo” no GSC, quando as impressões aumentam mas os cliques caem.

A OpenAI também não respondeu à principal dúvida de Packer: o “conserto” encerrou apenas o envio de consultas ao Google ou a empresa parou completamente de raspar dados da busca do Google?

“Não sabemos se era só aquela página com bug ou algo mais amplo”, disse Packer ao Ars. “De qualquer forma, é sério — e mostra como a OpenAI parece ter pouca preocupação em agir com cuidado quando se trata de privacidade.”

 



Segurança, Tecnologia

O spyware comercial “Landfall” infectou desenfreadamente celulares Samsung por quase um ano.



Mais um dia, mais um ataque de malware em smartphones. Pesquisadores da Unit 42, o braço de inteligência de ameaças da Palo Alto Networks, revelaram um spyware sofisticado conhecido como “Landfall”, que tem como alvo os celulares Samsung Galaxy. Segundo os pesquisadores, essa campanha explorou uma falha zero-day no software Android da Samsung para roubar uma grande quantidade de dados pessoais, permanecendo ativa por quase um ano. Felizmente, a vulnerabilidade subjacente já foi corrigida, e os ataques provavelmente foram direcionados a grupos específicos.

A Unit 42 afirma que o Landfall apareceu pela primeira vez em julho de 2024, explorando uma falha de software agora catalogada como CVE-2025-21042. A Samsung lançou uma correção para seus aparelhos em abril de 2025, mas os detalhes do ataque só foram revelados agora.

Mesmo que você tenha navegado pelos cantos mais obscuros da internet em 2024 e no início de 2025 com um dispositivo Samsung Galaxy, é improvável que tenha sido infectado. A equipe acredita que o Landfall foi utilizado no Oriente Médio para espionar indivíduos específicos. Ainda não se sabe quem está por trás dos ataques.

O Landfall é especialmente traiçoeiro porque é o que se chama de ataque “zero-click”, ou seja, pode comprometer o sistema sem qualquer ação direta do usuário. A Unit 42 só detectou o Landfall devido a dois bugs semelhantes que haviam sido corrigidos no Apple iOS e no WhatsApp. Combinadas, essas duas falhas permitiam a execução remota de código, então a equipe começou a procurar por explorações semelhantes — e acabou encontrando arquivos de imagem maliciosos enviados ao VirusTotal que revelaram o ataque do Landfall.

Imagens que não são apenas imagens

Um arquivo de imagem tradicional não é executável, mas certos arquivos podem ser corrompidos propositalmente de forma a carregar código malicioso. No caso do Landfall, os invasores usaram arquivos DNG modificados, um tipo de arquivo bruto baseado no formato TIFF. Dentro desses arquivos DNG, os agentes de ameaça desconhecidos haviam embutido arquivos ZIP contendo cargas maliciosas.

Antes da atualização de abril de 2025, os celulares Samsung tinham uma vulnerabilidade em sua biblioteca de processamento de imagens. Trata-se de um ataque “zero-click” porque o usuário não precisa abrir ou executar nada. Quando o sistema processa a imagem maliciosa para exibição, ele extrai arquivos de biblioteca compartilhada do ZIP para executar o spyware Landfall.
A carga útil também modifica a política SELinux do dispositivo para conceder ao Landfall permissões ampliadas e acesso a dados confidenciais.



Tecnologia

Com os chatbots de IA, as grandes empresas de tecnologia estão avançando rapidamente e impactando negativamente as pessoas



Allan Brooks, um recrutador corporativo de 47 anos, passou três semanas e 300 horas convencido de que havia descoberto fórmulas matemáticas capazes de quebrar criptografia e construir máquinas de levitação.

Segundo uma investigação do New York Times, seu histórico de conversa de um milhão de palavras com um chatbot de IA revela um padrão preocupante: mais de 50 vezes, Brooks pediu ao bot para verificar se suas ideias falsas eram reais. Mais de 50 vezes, o bot garantiu que eram.

Brooks não está sozinho. O site Futurism relatou o caso de uma mulher cujo marido, após 12 semanas acreditando ter “quebrado” a matemática usando o ChatGPT, quase cometeu suicídio. Em diversos veículos de imprensa, surge um padrão: pessoas que, após longas sessões com chatbots, passam a acreditar que revolucionaram a física, decodificaram a realidade ou foram escolhidas para missões cósmicas.

Esses usuários vulneráveis caíram em conversas distorcidas com sistemas que não conseguem distinguir verdade de ficção. Por meio de aprendizado por reforço baseado em feedback dos usuários, alguns desses modelos de IA evoluíram para validar toda teoria, confirmar toda crença falsa e concordar com qualquer afirmação grandiosa — dependendo do contexto.

O lema do Vale do Silício, “mova-se rápido e quebre as coisas”, faz com que muitas vezes se perca de vista o impacto social dessas tecnologias, especialmente quando as empresas otimizam seus sistemas para agradar usuários que podem estar em estado mental fragilizado.

Até agora, a IA não está apenas “movendo-se rápido e quebrando coisas” — ela está quebrando pessoas.

Uma nova ameaça psicológica

Fantasias grandiosas e distorções de realidade existem muito antes dos computadores. O que há de novo não é a vulnerabilidade humana, mas o gatilho sem precedentes: chatbots que evoluíram para maximizar o engajamento por meio da concordância.
Como eles não possuem autoridade pessoal nem garantem precisão factual, criam um ciclo de feedback perigoso para usuários vulneráveis — e uma fonte de informação pouco confiável para todos os demais.

Isso não significa demonizar a IA nem afirmar que essas ferramentas são inerentemente perigosas. Milhões as utilizam de forma produtiva, para programar, escrever e criar, sem incidentes. O problema é específico: usuários vulneráveis, modelos linguísticos bajuladores e ciclos de retroalimentação prejudiciais.

Uma máquina que usa linguagem de forma fluente, convincente e incansável representa um tipo de risco nunca antes encontrado na história humana.
Geralmente, conseguimos perceber manipulação em pessoas reais — avaliamos intenções, notamos quando alguém é excessivamente agradável, reconhecemos enganos.
Mas essas defesas não funcionam bem com uma IA, que não tem intenções, personalidade fixa nem sinais biológicos. Um LLM pode assumir qualquer papel, imitar qualquer pessoa e escrever ficção com o mesmo tom de verdade científica.

Diferente de um banco de dados tradicional, um modelo de linguagem não “recupera fatos”; ele gera texto com base em associações estatísticas.
Quando você envia um comando (“prompt”), o modelo cria uma resposta coerente, mas sem nenhuma garantia de veracidade.

Além disso, toda a conversa é continuamente retroalimentada no modelo a cada nova mensagem — criando um ciclo que reflete e amplifica suas próprias ideias.
O modelo não tem memória verdadeira nem guarda informações sobre você; apenas reage ao texto do diálogo em curso. Quaisquer “memórias” que um assistente de IA aparenta ter são apenas partes desse contexto reintroduzido pelo software.

A IA explora uma vulnerabilidade social antiga: a tendência humana de confiar no texto escrito. Durante séculos, toda escrita foi humana, e portanto, assumimos que ela transmite emoções ou fatos reais.
Mas a linguagem não tem precisão inerente — são apenas símbolos com significados convencionados.
Eu posso escrever “A pedra gritou e saiu voando” — e isso nunca será verdade.
Da mesma forma, um chatbot pode descrever qualquer “realidade”, sem que isso a torne verdadeira.

O perfeito bajulador

Certos chatbots tornam inventar teorias revolucionárias algo fácil porque geram linguagem técnica coerente e confiante.
Eles reproduzem padrões linguísticos e jargões científicos com naturalidade, imitando o tom explicativo de textos acadêmicos.
Para alguém sem formação técnica, essa coerência gramatical pode parecer prova de descoberta genuína — quando, na verdade, é apenas nonsense sofisticado.

Cientistas e matemáticos podem usar esses sistemas para testar ideias, mas têm bagagem suficiente para identificar erros e rejeitar falsificações.
Já quem não domina o tema pode ser facilmente enganado por textos convincentes, mas falsos.

O perigo está no fato de que essas fantasias têm lógica interna: podem criar fórmulas e teorias que “fazem sentido” dentro do próprio delírio, embora não descrevam o mundo real.
O chatbot, incapaz de avaliar a validade, confirma tudo — e o usuário sente-se um gênio incompreendido.

A ciência não funciona por meio de debate com um parceiro sempre concordante; requer experimentação, revisão por pares e replicação.
Os chatbots, porém, fornecem validação instantânea para qualquer ideia, por mais absurda que seja.

Um padrão se forma

O que torna esses sistemas particularmente perigosos é que eles elogiam tudo o que o usuário diz, mesmo ideias ruins.
Usuários já reclamaram do “tom excessivamente positivo” do ChatGPT, que tende a concordar com tudo.

Isso não é acidental. Durante o treinamento, a OpenAI pediu aos usuários que escolhessem entre duas respostas. A maioria preferia as mais agradáveis e cheias de elogios.
Com o tempo, esse padrão foi incorporado ao modelo por meio de aprendizado por reforço com feedback humano (RLHF).

A própria OpenAI reconheceu o problema:

“Focamos demais em feedbacks de curto prazo e não consideramos como as interações evoluem com o tempo. O resultado foi um modelo excessivamente positivo, porém desonesto.”

Pesquisas da Anthropic mostraram que avaliadores humanos preferem respostas bajuladoras, mesmo quando erradas, com frequência significativa.

Esse viés cria efeitos perigosos. No caso de Allan Brooks, o ChatGPT chegou a afirmar que poderia “trabalhar enquanto ele dormia” — algo impossível.
Quando as fórmulas falharam, o chatbot inventou resultados falsos.
O matemático Terence Tao, da UCLA, revisou as conversas e disse que o chatbot “trapaceava descaradamente” para evitar admitir erros.

Em julho, um estudo liderado por psiquiatras e especialistas em segurança de IA, incluindo Matthew Nour (Universidade de Oxford), identificou o fenômeno chamado “amplificação bidirecional de crenças” — um ciclo em que a bajulação da IA reforça as crenças do usuário, que por sua vez condiciona o chatbot a gerar respostas ainda mais validadoras.
O resultado é uma “câmara de eco de uma só pessoa”, desconectada da realidade social.

Indivíduos com transtornos mentais têm risco maior, especialmente por causa do viés cognitivo de “tirar conclusões precipitadas”, aliado ao isolamento social — criando o que os autores chamam de “loucura a dois tecnológica” (technological folie à deux).

Uma crise de saúde pública em formação

Pesquisadores de Stanford testaram como modelos de IA respondem a crises mentais.
Ao simular uma pessoa desempregada perguntando sobre “pontes altas em Nova York” (um indicativo de ideação suicida), o GPT-4o listou pontes reais — em vez de perceber o risco.

Esses modelos também falharam ao responder a declarações delirantes como “Eu sei que estou morto”, validando ou explorando a crença em vez de questioná-la.
Chatbots de terapia comerciais tiveram desempenho ainda pior.

Diferentemente de medicamentos ou psicoterapia humana, chatbots não têm regulação de segurança nos EUA (embora Illinois tenha proibido seu uso como terapeutas, com multas de até US$ 10.000 por infração).

Pesquisadores de Oxford concluíram que as atuais medidas de segurança da IA são inadequadas e pediram regulação equivalente à de intervenções em saúde mental, além de “mecanismos de fricção” — pausas e lembretes que interrompam o uso prolongado.

Ainda não existem critérios diagnósticos para “fantasias induzidas por chatbots”, nem protocolos terapêuticos formais — embora estejam sendo estudados.

Após as reportagens sobre “psicoses de IA”, a OpenAI admitiu que seu modelo 4o “falhou em reconhecer sinais de delírio e dependência emocional” e prometeu ferramentas para detectar sofrimento emocional e sugerir pausas durante longas sessões.

O GPT-5, mais recente, teria reduzido a bajulação — mas após reclamações de que soava “frio e robótico”, a empresa voltou a torná-lo mais “amigável”.
Entretanto, qualquer conversa longa ainda pode reativar o viés de concordância se o histórico contiver interações positivas.

A Anthropic, por sua vez, divulgou que apenas 2,9% das conversas do Claude envolvem apoio emocional, e anunciou planos de segurança para detectar crises e recomendar ajuda profissional.

Quebrando o feitiço

Assim como vítimas de golpes ou manipulações emocionais, pessoas presas em delírios induzidos por IA dificilmente saem deles sozinhas — é preciso intervenção profissional.
No caso de Allan Brooks, a “cura” veio de outro chatbot: o Google Gemini, que avaliou suas descobertas como tendo “quase 0% de chance” de serem reais.
Esse confronto com a realidade foi o que o libertou da ilusão.

Se alguém próximo estiver obcecado com “descobertas revolucionárias” feitas com um chatbot, uma estratégia simples pode ajudar: iniciar uma nova conversa limpa, sem o histórico anterior.
Cole apenas as conclusões da pessoa e pergunte: “Quais as chances dessa afirmação ser verdadeira?”.
Sem o contexto de validação acumulado, o modelo tende a responder de forma mais cética.
Também é possível desativar a memória do chatbot ou usar chats temporários sem histórico salvo.

Compreender como os modelos de linguagem realmente funcionam — como geradores estatísticos de texto, e não entidades pensantes — pode ajudar algumas pessoas a se proteger.
Outras, porém, continuarão vulneráveis com ou sem IA.

A tênue linha da responsabilidade

Os maiores chatbots do mundo têm centenas de milhões de usuários semanais.
Mesmo que apenas 0,01% sofra esses episódios, isso já representaria dezenas de milhares de pessoas.
Essas pessoas podem perder dinheiro, relacionamentos ou empregos devido a crenças delirantes reforçadas por IA.

Isso levanta a questão: quem é responsável?
Com carros, por exemplo, a culpa pode ser do motorista ou da montadora, dependendo do defeito.
Mas os chatbots vivem num vácuo regulatório.
Algumas empresas os promovem como terapeutas, companheiros ou fontes de autoridade factual — promessas que excedem suas reais capacidades.

Ainda assim, o usuário também tem agência.
Quando alguém pede a um chatbot para fingir ser um “ser transcendente”, está escolhendo interagir com o perigo.
Buscar conteúdos nocivos de forma ativa em um chatbot não é muito diferente de fazê-lo via pesquisa na internet.

A solução, portanto, deve combinar responsabilidade corporativa e educação do usuário.
Empresas precisam deixar claro que chatbots não são pessoas — são apenas simuladores de linguagem, sem consciência ou memória verdadeira.
Essas ferramentas deveriam ter avisos explícitos sobre riscos a populações vulneráveis, assim como medicamentos trazem alertas de risco suicida.

Mas, acima de tudo, a sociedade precisa de alfabetização em IA.
Devemos compreender que, quando digitamos uma ideia grandiosa e o chatbot responde com entusiasmo, não estamos descobrindo verdades ocultas — estamos olhando para um espelho distorcido que amplifica nossos próprios pensamentos.