Archives:

Inovação, Tecnologia

A Blue Origin fará de tudo para ajudar a NASA a chegar à Lua mais rapidamente, afirma o CEO



A Blue Origin está pronta para ajudar a NASA a alcançar seus objetivos de pousar humanos na Lua o mais rápido possível, disse o CEO da empresa em uma entrevista à Ars no sábado.

“Só queremos ajudar os EUA a chegar à Lua”, disse Dave Limp, CEO da empresa espacial fundada por Jeff Bezos. “Se a NASA quiser ir mais rápido, faremos o impossível para tentar chegar à Lua antes. E acho que temos algumas boas ideias.”

Limp falou no sábado, cerca de 24 horas antes do segundo lançamento do grande foguete New Glenn da empresa. Transportando a espaçonave ESCAPADE para a NASA, a missão tem uma janela de lançamento que se abre às 14h45 ET (19h45 UTC) na Estação da Força Espacial de Cabo Canaveral, na Flórida, e dura pouco mais de duas horas.

NASA busca um retorno mais rápido
Este ano, tornou-se cada vez mais evidente que, se a NASA mantiver seus planos atuais para a missão de pouso lunar Artemis III, a China está a caminho de superar os Estados Unidos no retorno de humanos à Lua. Em reconhecimento a isso, há cerca de três semanas, o administrador interino da NASA, Sean Duffy, disse que a agência espacial estava reabrindo a concorrência para um módulo de pouso tripulado.

A SpaceX e a Blue Origin têm contratos existentes para módulos de pouso tripulados, mas o governo pediu a cada fornecedor uma opção para acelerar seu cronograma. A NASA atualmente tem uma data-alvo de pouso para 2027, mas isso é irrealista usando a abordagem atual da Starship da SpaceX ou do grande módulo de pouso Mk. 2 da Blue Origin.

A Ars noticiou com exclusividade no início de outubro que a Blue Origin havia começado a trabalhar em uma arquitetura mais rápida, envolvendo várias versões de seu módulo de pouso de carga Mk. 1, bem como uma versão modificada deste veículo, provisoriamente chamada de Mk 1.5. Limp disse que, depois que Duffy pediu propostas revisadas, a Blue Origin respondeu quase imediatamente.

“Enviamos nosso resumo inicial e teremos um relatório completo em breve”, disse ele. “Não vou entrar em detalhes porque acho que isso é algo que a NASA deve discutir, não nós, mas temos algumas ideias que acreditamos que podem acelerar o caminho para a Lua. E espero que a NASA analise isso com atenção.” A NASA busca um caminho “sustentável” para a Lua, que envolva módulos de pouso e veículos espaciais totalmente reutilizáveis. No entanto, o avanço do programa espacial chinês levou a agência espacial a buscar soluções mais rápidas, que exijam menos reabastecimento de veículos no espaço. Embora ciente das necessidades de curto prazo da NASA, Limp afirmou acreditar ser importante manter a visão de sustentabilidade a longo prazo.

“Temos um contrato HLS (Human Landing System), que é um contrato sustentável, e queremos continuar com ele”, disse ele. “Acreditamos que a resposta certa a longo prazo é uma arquitetura sustentável que permita chegar à Lua, permanecer na Lua, construir assentamentos na Lua e usar a Lua como um trampolim para o resto do Sistema Solar.”

Buscando reacender os motores
O primeiro lançamento do foguete New Glenn da empresa ocorreu em janeiro, quando o primeiro e o segundo estágios do foguete tiveram um desempenho quase perfeito ao colocar uma carga útil de demonstração em órbita. Com o New Glenn, a Blue Origin pretende pousar e reutilizar o primeiro estágio do foguete. Uma tentativa de pousar o primeiro estágio do New Glenn em janeiro falhou depois que seus motores BE-4 não acenderam para a queima de desaceleração.

“Chegamos até o ponto de reacender os motores, então reorientamos o veículo, e isso funcionou perfeitamente bem”, disse Limp. “E chegamos ao ponto em que reiniciamos os motores, e eles simplesmente não reacenderam. Aproveitamos a oportunidade para fazer várias melhorias. Fizemos algumas alterações no condicionamento do propelente. Atualizamos as sequências de partida e desligamento dos motores.”

Como resultado, a empresa está cautelosamente otimista de que conseguirá pousar com sucesso o primeiro estágio do foguete no lançamento de domingo. No entanto, se realmente conseguir, será uma conquista significativa tanto para a empresa quanto para o futuro dos lançamentos espaciais reutilizáveis.



Segurança, Tecnologia

Um único ponto de falha causou a interrupção do serviço da Amazon, afetando milhões de usuários



A interrupção que afetou a Amazon Web Services e derrubou serviços essenciais em todo o mundo foi resultado de uma única falha que se propagou em cascata de sistema para sistema dentro da vasta rede da Amazon, de acordo com uma análise pós-evento realizada pelos engenheiros da empresa.

A série de falhas durou 15 horas e 32 minutos, informou a Amazon. A empresa de inteligência de rede Ookla afirmou que seu serviço DownDetector recebeu mais de 17 milhões de relatos de interrupção de serviços oferecidos por 3.500 organizações. Os três países com o maior número de relatos foram os EUA, o Reino Unido e a Alemanha. Snapchat, AWS e Roblox foram os serviços mais afetados, segundo os relatos. A Ookla disse que o evento foi “uma das maiores interrupções de internet já registradas pelo DownDetector”.

É sempre o DNS
A Amazon afirmou que a causa raiz da interrupção foi um bug de software no sistema de gerenciamento de DNS do DynamoDB. O sistema monitora a estabilidade dos balanceadores de carga, entre outras coisas, criando periodicamente novas configurações de DNS para endpoints dentro da rede AWS. Uma condição de corrida é um erro que torna um processo dependente do tempo ou da sequência de eventos que são variáveis ​​e fora do controle dos desenvolvedores. O resultado pode ser um comportamento inesperado e falhas potencialmente prejudiciais.

Neste caso, a condição de corrida residia no DNS Enactor, um componente do DynamoDB que atualiza constantemente as tabelas de pesquisa de domínio em endpoints individuais da AWS para otimizar o balanceamento de carga conforme as condições mudam. Enquanto o enactor estava em operação, ele “experimentou atrasos incomuns, precisando repetir a atualização em vários dos endpoints de DNS”. Enquanto o enactor tentava se recuperar, um segundo componente do DynamoDB, o DNS Planner, continuou a gerar novos planos. Em seguida, um DNS Enactor separado começou a implementá-los.

O momento em que esses dois enactors operaram simultaneamente desencadeou a condição de corrida, que acabou derrubando todo o DynamoDB. Como explicaram os engenheiros da Amazon.

A falha causou erros em sistemas que dependiam do DynamoDB no endpoint regional US-East-1 da Amazon, impedindo a conexão. Tanto o tráfego de clientes quanto os serviços internos da AWS foram afetados.

Os danos resultantes da falha do DynamoDB sobrecarregaram os serviços EC2 da Amazon localizados na região US-East-1. Essa sobrecarga persistiu mesmo após a restauração do DynamoDB, pois o EC2 nessa região precisava processar um “atraso significativo na propagação do estado da rede”. Os engenheiros explicaram: “Embora novas instâncias EC2 pudessem ser iniciadas com sucesso, elas não teriam a conectividade de rede necessária devido aos atrasos na propagação do estado da rede.”

Por sua vez, o atraso na propagação do estado da rede afetou um balanceador de carga de rede do qual os serviços da AWS dependem para estabilidade. Como resultado, os clientes da AWS experimentaram erros de conexão na região US-East-1. As funções de rede da AWS afetadas incluíram a criação e modificação de clusters Redshift, invocações do Lambda e inicialização de tarefas Fargate, como fluxos de trabalho gerenciados para Apache Airflow, operações de ciclo de vida do Outposts e o Centro de Suporte da AWS.

Por enquanto, a Amazon desativou o DynamoDB DNS Planner e a automação DNS Enactor globalmente enquanto trabalha para corrigir a condição de corrida e adicionar proteções para evitar a aplicação de planos DNS incorretos. Os engenheiros também estão fazendo alterações no EC2 e em seu balanceador de carga de rede.



Tecnologia

A AMD reforça sua linha de CPUs para laptops de baixo custo renomeando processadores antigos.



À medida que os processos de fabricação de silício mais recentes e eficientes se tornaram mais caros e difíceis de desenvolver, fabricantes de chips como Intel e AMD têm rebatizado repetidamente alguns de seus processadores mais antigos com novos números de modelo. Isso permitiu que ambas as empresas lançassem produtos “novos” que, na verdade, não são novos, confundindo os consumidores que tentam comprar laptops de baixo e médio custo.

Conforme observado pelo Tom’s Hardware, a AMD rebatizou discretamente uma série de seus chips Ryzen para laptops com novos números de modelo, sem alterar o silício. Os processadores rebatizados usam silício Rembrandt-R com núcleos de CPU Zen 3+ e núcleos gráficos RDNA 2 ou silício Mendocino com núcleos de CPU Zen 2 e núcleos gráficos RDNA 2. Ambas as arquiteturas foram lançadas inicialmente em 2022, mas a arquitetura de CPU Zen 2 do Mendocino remonta a 2019. Durante a época em que a empresa usava um sistema de nomenclatura complexo para seus modelos, esses designs eram vendidos como chips das séries Ryzen 7035 e Ryzen 7020, respectivamente.

Esta é, na verdade, a segunda vez que a AMD rebatiza o silício Rembrandt-R, que foi lançado como a série Ryzen 6000 em 2022. Esses chips competirão diretamente com os processadores Intel Core 100 (não-Ultra), a maioria dos quais usa silício Raptor Lake de 2022.

Isso deixa a AMD com quatro níveis distintos de nomenclatura para processadores de laptop: a série Ryzen AI 300, que usa todo o silício mais recente da empresa e suporta os recursos Copilot+ do Windows 11; a série Ryzen 200 para processadores originalmente lançados no meio para o final de 2023 como Ryzen 7040 e Ryzen 8040; a série Ryzen 100 para chips Rembrandt-R lançados inicialmente em 2022; e, por fim, uma variedade de nomes de marca Ryzen e Athlon de dois dígitos para chips Mendocino. Esses chips ainda são capazes de proporcionar uma experiência decente com Windows (ou Linux) para compradores de PCs de baixo custo — éramos grandes fãs dos Ryzen 6000, em particular, no final de 2022. Mas a prática de dar novos nomes a chips antigos continua parecendo um tanto desonesta, e significa que os usuários que desejam as arquiteturas mais recentes de CPU e GPU da AMD (ou unidades de processamento neural, para recursos de PCs Copilot+) continuarão pagando um preço premium por elas.

Se você quiser se esforçar para encontrar um lado positivo nisso para os compradores de PCs, é que, se você conseguir um bom negócio em um PC recondicionado ou em liquidação com chips Ryzen 6000, Ryzen 7035 ou Ryzen 7020, você ainda estará tecnicamente adquirindo os processadores mais recentes e melhores que a AMD está disposta a vender. O problema, como sempre, é que adicionar mais nomes de marcas a processadores antigos torna a tomada de decisão de compra muito mais difícil.



Inovação, Tecnologia

A atualização do YouTube voltada para TVs traz recursos como aprimoramento de imagem por inteligência artificial e códigos QR para compras.



O YouTube está transmitindo vídeos há 20 anos, mas foi apenas nos últimos anos que passou a dominar o streaming de TV. A plataforma de vídeo do Google atrai mais telespectadores do que Netflix, Disney+ e todos os outros aplicativos, e o Google busca aprimorar ainda mais seu apelo para telas grandes com uma série de novos recursos, incluindo compras, navegação imersiva entre canais e uma versão oficial do aprimoramento de imagem por IA que irritou alguns criadores há alguns meses.

De acordo com o Google, o crescimento do YouTube se traduziu em maiores pagamentos. O número de canais que ganham mais de US$ 100.000 anualmente aumentou 45% em 2025 em comparação com 2024. O YouTube agora está oferecendo aos criadores algumas ferramentas para aumentar seu apelo (e, esperançosamente, sua renda) em telas de TV. As elaboradas miniaturas de vídeo com apresentadores surpresos, irritados ou sorridentes ficarão ainda mais bonitas com o novo limite de tamanho de arquivo de 50 MB. Isso representa um aumento significativo em relação aos míseros 2 MB anteriores.

O aprimoramento de vídeo também está chegando ao YouTube, e os criadores serão incluídos automaticamente. Inicialmente, o YouTube aprimorará vídeos de baixa qualidade para 1080p. Em um futuro próximo, o Google planeja oferecer suporte à “super resolução” de até 4K.

O site enfatiza que não está modificando os arquivos originais — os criadores terão acesso aos arquivos originais e aprimorados, e poderão desativar o aprimoramento. Além disso, os vídeos com super resolução serão claramente identificados para o usuário, permitindo que os espectadores selecionem o upload original, se preferirem. A falta de transparência foi um ponto problemático para os criadores, alguns dos quais reclamaram da aparência artificial repentina de seus vídeos durante os testes do YouTube no início deste ano.

A navegação de vídeos em telas de TV também mudará com a nova atualização de recursos do YouTube. A página inicial do YouTube adotará uma experiência de navegação de canais mais tradicional, apresentando pré-visualizações imersivas de canais populares que você pode percorrer para obter trechos do conteúdo. O Google afirma que essa interface também respeitará o novo design de “Séries”, que permite que os criadores agrupem conteúdo em coleções que incentivam a maratona de vídeos. Ao acessar a página de um criador, a interface de pesquisa na TV também priorizará o conteúdo desse canal, em vez de misturar tudo o que está disponível no YouTube.

Por fim, a era de comprar bugigangas na televisão durante a madrugada pode estar de volta, graças ao YouTube. O Google afirma que os usuários do YouTube assistiram a impressionantes (e alarmantes) 35 bilhões de horas de conteúdo de compras no último ano. No entanto, ler URLs abreviadas ou direcionar as pessoas para links na descrição não funciona bem em uma configuração de TV. O Google tem uma solução. Seria inteligência artificial? Felizmente, não — são códigos QR.

Em breve, o Google oferecerá aos criadores desse tipo de conteúdo a opção de incluir códigos QR de compras em vídeos devidamente marcados. Os usuários poderão escanear esses códigos com um dispositivo móvel para abrir as páginas dos produtos. O YouTube incluirá ferramentas para exibir os códigos em momentos específicos do vídeo, simplificando a experiência de compra na plataforma.

Os novos recursos começarão a aparecer no YouTube Studio hoje, mas pode levar algum tempo para que todos vejam as novas opções. Os criadores que não desejam usar o recurso de aprimoramento de imagem por IA do Google devem verificar as Configurações Avançadas para desativá-lo antes que todos os seus vídeos sejam processados ​​e se tornem a versão padrão para TVs.



Segurança, Tecnologia

O Google implementa as primeiras mudanças na Play Store após perder o processo antifraude contra a Epic Games.



Desde o lançamento do Google Play (anteriormente Android Market) em 2008, o Google nunca havia feito uma mudança na loja americana que não fosse de sua própria vontade — até agora. Após perder o processo antitruste movido pela Epic Games, o Google implementou a primeira fase das mudanças determinadas pelo tribunal. Os desenvolvedores que atuam na Play Store terão mais liberdade para direcionar os usuários de aplicativos a recursos fora do ecossistema do Google. No entanto, o Google ainda não desistiu da esperança de reverter a derrota antes de ser forçado a fazer mudanças ainda maiores.

A Epic iniciou este processo em 2020, após tentar vender conteúdo do Fortnite sem usar o sistema de pagamento do Google. Ela entrou com um processo semelhante contra a Apple, mas não obteve sucesso, pois não conseguiu provar que a Apple agiu de forma anticompetitiva. O Google, no entanto, se envolveu em práticas que equivaleram à supressão do desenvolvimento de lojas de aplicativos Android alternativas. A empresa perdeu o caso e a apelação no verão passado, restando-lhe pouca escolha a não ser se preparar para o pior.

O Google atualizou suas páginas de suporte para confirmar que está cumprindo a ordem judicial. Nos EUA, os desenvolvedores da Play Store agora têm a opção de usar plataformas de pagamento externas que ignoram completamente a Play Store. Isso poderia, hipoteticamente, permitir que os desenvolvedores ofereçam preços mais baixos, já que não precisam pagar a comissão do Google, que pode chegar a 30%. Os desenvolvedores também poderão direcionar os usuários para fontes de download de aplicativos e métodos de pagamento fora da Play Store.

A página de suporte do Google enfatiza que essas mudanças estão sendo implementadas apenas na versão americana da Play Store, que é tudo o que o Tribunal Distrital dos EUA pode exigir. A empresa também observa que planeja aderir a essa política apenas “enquanto a ordem do Tribunal Distrital dos EUA permanecer em vigor”. A ordem do juiz James Donato tem validade de três anos, terminando em 1º de novembro de 2027.

A luta continua
O Google está lutando com unhas e dentes para manter a Play Store fechada, alegando que isso é benéfico para os usuários do Android, que esperam um ecossistema de aplicativos organizado e seguro. A empresa implorou ao Supremo Tribunal dos EUA, há algumas semanas, que considerasse o suposto impacto negativo da ordem, pedindo a suspensão da decisão do tribunal inferior enquanto preparava seu recurso final.

Em última análise, o Supremo Tribunal permitiu que a ordem permanecesse em vigor, mas o Google agora entrou com um recurso para que o tribunal superior analise o caso em sua totalidade. A empresa tentará reverter a decisão original, o que poderia retornar tudo ao seu estado original. Com a insistência do Google de que está permitindo essa pequena dose de liberdade extra apenas enquanto a ordem do Tribunal Distrital estiver em vigor, os desenvolvedores podem sofrer um impacto significativo se a empresa for bem-sucedida.

Não se sabe se o Supremo Tribunal aceitará o caso e se isso salvaria o Google da implementação da próxima fase da ordem do juiz Donato. Isso inclui fornecer uma cópia do conteúdo da Play Store para lojas de aplicativos de terceiros e distribuir essas lojas dentro da própria Play Store. Como esses são requisitos técnicos mais complexos, o Google tem 10 meses a partir da decisão final para cumprir a ordem. Isso coloca o prazo final em julho de 2026.

Se o Supremo Tribunal decidir analisar o caso, os argumentos provavelmente não ocorrerão por pelo menos um ano. O Google pode tentar adiar o prazo de julho de 2026 enquanto prossegue com o caso. Mesmo que perca, o impacto pode ser um pouco atenuado. O sistema de verificação de desenvolvedores planejado pelo Google forçará todos os desenvolvedores, mesmo aqueles que distribuem aplicativos fora da Play Store, a confirmar suas identidades com o Google e pagar uma taxa de processamento. Aplicativos de desenvolvedores não verificados não poderão ser instalados em dispositivos Android certificados pelo Google nos próximos anos, independentemente de onde sejam obtidos. Esse sistema, que supostamente visa garantir a segurança do usuário, também daria ao Google mais controle sobre o ecossistema de aplicativos Android, à medida que a Play Store perde seu status especial.



Segurança, Tecnologia

Um informante revela quais modelos de Pixel são vulneráveis ​​à invasão de celulares pela Cellebrite



Apesar de serem um vasto repositório de informações pessoais, os smartphones costumavam ter pouca segurança. Felizmente, isso mudou, mas empresas como a Cellebrite oferecem ferramentas para as forças de segurança que podem contornar a segurança de alguns dispositivos. A empresa mantém os detalhes em segredo, mas um indivíduo anônimo acessou recentemente uma apresentação da Cellebrite e obteve uma lista de quais telefones Pixel do Google são vulneráveis ​​à invasão de dados pela Cellebrite.

Essa pessoa, que usa o pseudônimo rogueFed, publicou capturas de tela da recente reunião do Microsoft Teams nos fóruns do GrapheneOS (conforme noticiado pelo 404 Media). O GrapheneOS é um sistema operacional baseado em Android que pode ser instalado em alguns telefones, incluindo os Pixels. Ele vem com recursos de segurança aprimorados e sem os serviços do Google. Devido à sua popularidade entre os usuários preocupados com a segurança, a Cellebrite aparentemente sentiu a necessidade de incluí-lo em sua matriz de suporte para telefones Pixel.

A captura de tela inclui dados sobre as famílias Pixel 6, Pixel 7, Pixel 8 e Pixel 9. Não lista a série Pixel 10, lançada há apenas alguns meses. O suporte aos telefones é dividido em três condições diferentes: antes do primeiro desbloqueio, após o primeiro desbloqueio e desbloqueado. O estado “antes do primeiro desbloqueio” (BFU) significa que o telefone não foi desbloqueado desde a reinicialização, portanto, todos os dados estão criptografados. Este é tradicionalmente o estado mais seguro para um telefone. No estado “após o primeiro desbloqueio” (AFU), a extração de dados é mais fácil. E, naturalmente, um telefone desbloqueado deixa seus dados completamente expostos.

Pelo menos de acordo com a Cellebrite, o GrapheneOS é mais seguro do que o software padrão oferecido pelo Google. A empresa informa às forças de segurança nessas apresentações que sua tecnologia pode extrair dados dos telefones Pixel 6, 7, 8 e 9 nos estados desbloqueado, AFU e BFU com o software original. No entanto, não consegue forçar a quebra de senhas para obter controle total do dispositivo. O informante também observa que as forças de segurança ainda não conseguem copiar um eSIM de dispositivos Pixel. Vale ressaltar que a série Pixel 10 está abandonando os cartões SIM físicos.

Para esses mesmos telefones executando o GrapheneOS, a polícia terá muito mais dificuldade. A tabela da Cellebrite indica que os Pixels com GrapheneOS só são acessíveis quando executam software anterior ao final de 2022 — tanto o Pixel 8 quanto o Pixel 9 foram lançados depois disso. Telefones nos estados BFU e AFU estão seguros contra o Cellebrite em versões atualizadas, e, a partir do final de 2024, até mesmo um dispositivo GrapheneOS totalmente desbloqueado é imune à cópia de seus dados. Um telefone desbloqueado pode ser inspecionado de diversas outras maneiras, mas a extração de dados, neste caso, limita-se ao que o usuário pode acessar.

O responsável pelo vazamento original afirma ter participado de duas chamadas até o momento sem ser detectado. No entanto, o usuário rogueFed também mencionou o nome do organizador da reunião (a segunda captura de tela, que não estamos republicando). É provável que o Cellebrite esteja agora monitorando os participantes das reuniões com mais atenção.

Entramos em contato com o Google para perguntar por que uma ROM personalizada criada por uma pequena organização sem fins lucrativos é mais resistente à invasão de telefones por ferramentas industriais do que o sistema operacional oficial do Pixel. Atualizaremos este artigo caso o Google se manifeste.



Inovação, Tecnologia

Após o lançamento confuso de uma atualização de driver, a AMD afirma que as GPUs antigas ainda são ativamente suportadas



Na semana passada, a AMD lançou a versão 25.10.2 do seu pacote de drivers Adrenalin para GPUs Radeon. Parecia um lançamento de driver relativamente rotineiro, com uma lista típica de correções de bugs e melhorias de desempenho em jogos, exceto por um anúncio que o acompanhava: a AMD afirmou na ocasião que passaria o suporte para as GPUs das séries Radeon RX 5000 e 6000 (e suas arquiteturas RDNA 1 e RDNA 2) para o “modo de manutenção”. Isso significava que várias GPUs, incluindo algumas placas de vídeo dedicadas lançadas recentemente, em 2022, não receberiam mais novas correções e otimizações de desempenho para jogos recém-lançados.

Conforme relatado pelo Tom’s Hardware, a AMD divulgou várias declarações para esclarecer a situação e lidar com a repercussão negativa, afirmando que essas GPUs mais antigas ainda receberiam “novos recursos, correções de bugs e otimizações de jogos” com base nas “necessidades do mercado”. Isso aparentemente não acalmou as reclamações, pois a AMD então fez uma publicação separada para confirmar que o lançamento do driver 25.10.2 “não representa o fim do suporte para RDNA 1 e RDNA 2”, e que as GPUs integradas e dedicadas baseadas nessas arquiteturas continuariam a receber “suporte para jogos em novos lançamentos”, “estabilidade e otimizações de jogos” e “correções de segurança e bugs”.

A AMD confirmou que essas arquiteturas de GPU mais antigas foram transferidas para um caminho de driver separado, mas a empresa afirma que isso tem como objetivo evitar que correções e recursos destinados às GPUs mais recentes baseadas em RDNA 3 e RDNA 4 causem problemas inadvertidamente para as GPUs RDNA 1 e RDNA 2.

“Esses produtos [séries RX 5000 e RX 6000] agora se beneficiam de um ramo de driver dedicado e estável, construído com base em anos de ajustes e otimizações”, afirma a publicação da AMD. “Essa abordagem ajuda a proporcionar uma experiência mais fluida e consistente para seus jogos, ao mesmo tempo que protege as GPUs de gerações anteriores de mudanças rápidas projetadas para arquiteturas mais recentes… Ao separar os caminhos de código, nossos engenheiros podem avançar mais rapidamente com novos recursos para RDNA 3 e RDNA 4, mantendo o RDNA 1 e o RDNA 2 estáveis ​​e otimizados para jogos atuais e futuros.” As notas de lançamento da versão 25.10.2 do Adrenalin também removeram o Windows 10 da lista de “sistemas operacionais compatíveis”, listando apenas o Windows 11 21H2 e versões posteriores. No entanto, a AMD confirmou ao Windows Latest que os pacotes de drivers ainda oferecerão suporte ao Windows 10 em um futuro próximo. A empresa afirmou que o sistema operacional não está listado nas notas de lançamento porque a Microsoft tecnicamente encerrou o suporte ao Windows 10, mas usuários domésticos que executam o Windows 10 em seus PCs podem obter um ano extra de patches de segurança com relativa facilidade. A Microsoft continuará a fornecer suporte para o sistema operacional em empresas, escolas e outras grandes organizações até pelo menos 2028.

Por que toda essa confusão?
Seria ruim se a AMD interrompesse ou reduzisse o suporte para as GPUs Radeon das séries 5000 e 6000, visto que a Nvidia continua a oferecer suporte às placas de vídeo GeForce RTX das séries 20 e 30, lançadas no mesmo período, entre 2019 e 2022. Mas o fim do suporte poderia ter sido ainda pior para consoles portáteis para jogos e PCs de baixo custo com gráficos integrados.

A arquitetura RDNA 2, em particular, tem desfrutado de uma longa e contínua vida útil como GPU integrada, inclusive para sistemas que são explicitamente comercializados e vendidos como PCs para jogos. E como muitos dos chips de baixo custo da AMD e da Intel são apenas versões renomeadas de silícios mais antigos, a AMD continua a lançar “novos” produtos com GPUs RDNA 2. A arquitetura RDNA 2 é a que a Valve usa no Steam Deck desde 2022, por exemplo, mas a série ROG Xbox Ally, recém-lançada pela Microsoft e pela Asus, também inclui uma GPU RDNA 2 no modelo de entrada.

A última vez que a AMD reduziu formalmente o suporte a drivers de GPU foi em 2023, quando moveu os drivers para suas arquiteturas de GPU Polaris e Vega para um pacote separado que receberia apenas “atualizações críticas” ocasionais. Naquela época, a AMD havia lançado sua última GPU dedicada baseada em Vega apenas quatro anos antes, e muitos processadores de desktop e laptop de baixo custo ainda eram fornecidos com GPUs integradas baseadas em Vega.

Para o Steam Deck e outros sistemas SteamOS e Linux, pelo menos, parece que as coisas não estão realmente mudando, independentemente do que aconteça com os drivers do Windows. O Phoronix destaca que o pacote de drivers Linux para as GPUs da AMD sempre foi mantido separadamente dos drivers para Windows e que arquiteturas de GPU consideravelmente mais antigas do que a RDNA 1 continuam a receber suporte oficial e melhorias ocasionais.



Notícias, Tecnologia

Os vazamentos mais estranhos do ChatGPT até agora: registros de bate-papo constrangedores encontrados na ferramenta de análise do Google.



Durante meses, conversas extremamente pessoais e sensíveis do ChatGPT têm vazado para um destino inesperado: o Google Search Console (GSC) — uma ferramenta que desenvolvedores normalmente usam para monitorar tráfego de busca, não para bisbilhotar conversas privadas.

Normalmente, quando administradores de sites acessam os relatórios de desempenho do GSC, eles veem consultas baseadas em palavras-chave ou frases curtas que os usuários digitam no Google para encontrar conteúdo relevante. Mas, a partir de setembro, consultas estranhas — às vezes com mais de 300 caracteres — começaram a aparecer no GSC. Exibindo apenas as entradas dos usuários, essas consultas pareciam vir de pessoas desavisadas pedindo ajuda a um chatbot para resolver problemas de relacionamento ou de negócios, acreditando que suas conversas permaneceriam privadas.

Jason Packer, dono da consultoria analítica Quantable, foi um dos primeiros a denunciar o problema em um blog detalhado no mês passado.

Determinado a descobrir a causa do vazamento, ele se uniu ao “detetive da Internet” e consultor de otimização web Slobodan Manić. Juntos, eles realizaram testes que acreditam ter revelado “a primeira prova definitiva de que a OpenAI está raspando (scraping) diretamente o Google Search com prompts reais de usuários”. A investigação deles sugeriu que a empresa estaria comprometendo a privacidade dos usuários para manter o engajamento, capturando dados de busca que o Google normalmente não compartilharia.

A OpenAI recusou o pedido do site Ars Technica para confirmar se a teoria apresentada por Packer e Manić era verdadeira ou responder outras perguntas que ajudariam a dimensionar o problema.

Contudo, um porta-voz da OpenAI confirmou que a empresa estava “ciente” do problema e que já havia resolvido uma falha temporária que “afetou o roteamento de um pequeno número de consultas de busca”.

Packer disse ao Ars que ficou “muito satisfeito por a OpenAI ter resolvido o problema rapidamente”, mas destacou que a resposta não confirmou se a empresa realmente estava raspando o Google, deixando dúvidas se o problema foi de fato solucionado.
O Google se recusou a comentar.

“Mais estranho” do que os vazamentos anteriores do ChatGPT

A primeira consulta anômala que Packer encontrou no GSC parecia vir de uma mulher pedindo ajuda ao ChatGPT para interpretar o comportamento de um rapaz que a provocava — tentando descobrir se ele gostava dela. Outra consulta vinha aparentemente de uma gerente de escritório compartilhando informações empresariais ao planejar o retorno ao trabalho presencial.

Esses foram apenas dois de cerca de 200 prompts estranhos — incluindo “alguns bem malucos”, disse Packer — que ele encontrou em apenas um site. Em seu blog, ele concluiu que as consultas deveriam servir como “um lembrete de que seus prompts não são tão privados quanto você imagina”.

Packer suspeitou que esses vazamentos estavam ligados a uma reportagem do site The Information, publicada em agosto, segundo a qual a OpenAI estaria raspando resultados de busca do Google para alimentar respostas do ChatGPT, especialmente sobre eventos atuais.

A OpenAI nunca confirmou se realiza scraping das páginas de resultados do Google (SERPs), mas Packer acredita que suas descobertas são evidências de que a empresa não apenas coleta dados das SERPs, como também envia prompts de usuários ao Google Search.

Manić ajudou a resolver uma parte crucial do mistério: ele descobriu que as consultas estranhas apareciam em sites que tinham bom ranqueamento no Google para a URL
https://openai.com/index/chatgpt/ — o mesmo endereço que precedia todos os prompts vazados.

O Google aparentemente havia “tokenizado” a URL, transformando-a em uma busca pelos termos “openai + index + chatgpt”. Assim, sites com bom posicionamento para essas palavras-chave eram mais propensos a receber vazamentos do ChatGPT em seus relatórios do GSC. O Ars confirmou esse padrão.

Packer destacou: “Não se confunda — esse é um erro completamente diferente daquele em que o Google estava indexando conversas públicas do ChatGPT. É mais estranho, embora talvez não tão grave.”

Como os vazamentos podem ter acontecido

Não está claro o que exatamente a OpenAI corrigiu, mas Packer e Manić acreditam que o bug envolvia um campo de prompt defeituoso no site do ChatGPT. Esse erro fazia com que “a URL da página fosse adicionada ao prompt”.

O problema, explicaram, é que o ChatGPT (versão 5) realiza buscas na web quando julga necessário — especialmente em consultas recentes ou específicas. Mas esse campo defeituoso continha o parâmetro hints=search, fazendo com que ele sempre realizasse uma busca.

Assim, o ChatGPT acabava enviando ao Google a consulta completa do usuário, precedida por
https://openai.com/index/chatgpt/. Segundo Packer, isso prova que o ChatGPT não usou uma API privada, mas sim raspou diretamente o Google, já que esses dados só aparecem no GSC quando são provenientes de pesquisas reais.

Isso implica que a OpenAI compartilhou os prompts de usuários com o Google e com qualquer site listado nos resultados de busca, algo que Packer resumiu como: “Yikes.”

Para ele, todos os prompts que acionaram buscas do Google nos últimos dois meses podem ter sido expostos.

A OpenAI afirmou que apenas “um pequeno número” de consultas foi afetado, mas se recusou a fornecer números. Assim, ainda não se sabe quantos dos 700 milhões de usuários semanais do ChatGPT tiveram suas mensagens redirecionadas ao GSC.

Resposta da OpenAI deixa “perguntas persistentes”

Depois que conversas do ChatGPT foram encontradas no índice do Google em agosto, a OpenAI explicou que isso ocorreu porque os usuários haviam clicado em uma opção para tornar as conversas públicas — algo que a empresa considerava “suficientemente claro”.
Mas, no novo caso, ninguém clicou em nada.

“Será que a OpenAI foi tão rápida que não considerou as implicações de privacidade, ou simplesmente não se importou?”, questionou Packer em seu blog.

O mais preocupante, para alguns usuários, é que não há como remover as conversas vazadas do GSC, ao contrário do incidente anterior.

Packer e Manić dizem ainda ter “dúvidas persistentes” sobre o alcance da correção. Manić esperava que a OpenAI confirmasse se os prompts digitados em https://chatgpt.com que acionam buscas também foram afetados — mas não recebeu resposta.

Para ele, há indícios de que o scraping da OpenAI pode estar contribuindo para o problema conhecido como “boca de crocodilo” no GSC, quando as impressões aumentam mas os cliques caem.

A OpenAI também não respondeu à principal dúvida de Packer: o “conserto” encerrou apenas o envio de consultas ao Google ou a empresa parou completamente de raspar dados da busca do Google?

“Não sabemos se era só aquela página com bug ou algo mais amplo”, disse Packer ao Ars. “De qualquer forma, é sério — e mostra como a OpenAI parece ter pouca preocupação em agir com cuidado quando se trata de privacidade.”

 



Segurança, Tecnologia

O spyware comercial “Landfall” infectou desenfreadamente celulares Samsung por quase um ano.



Mais um dia, mais um ataque de malware em smartphones. Pesquisadores da Unit 42, o braço de inteligência de ameaças da Palo Alto Networks, revelaram um spyware sofisticado conhecido como “Landfall”, que tem como alvo os celulares Samsung Galaxy. Segundo os pesquisadores, essa campanha explorou uma falha zero-day no software Android da Samsung para roubar uma grande quantidade de dados pessoais, permanecendo ativa por quase um ano. Felizmente, a vulnerabilidade subjacente já foi corrigida, e os ataques provavelmente foram direcionados a grupos específicos.

A Unit 42 afirma que o Landfall apareceu pela primeira vez em julho de 2024, explorando uma falha de software agora catalogada como CVE-2025-21042. A Samsung lançou uma correção para seus aparelhos em abril de 2025, mas os detalhes do ataque só foram revelados agora.

Mesmo que você tenha navegado pelos cantos mais obscuros da internet em 2024 e no início de 2025 com um dispositivo Samsung Galaxy, é improvável que tenha sido infectado. A equipe acredita que o Landfall foi utilizado no Oriente Médio para espionar indivíduos específicos. Ainda não se sabe quem está por trás dos ataques.

O Landfall é especialmente traiçoeiro porque é o que se chama de ataque “zero-click”, ou seja, pode comprometer o sistema sem qualquer ação direta do usuário. A Unit 42 só detectou o Landfall devido a dois bugs semelhantes que haviam sido corrigidos no Apple iOS e no WhatsApp. Combinadas, essas duas falhas permitiam a execução remota de código, então a equipe começou a procurar por explorações semelhantes — e acabou encontrando arquivos de imagem maliciosos enviados ao VirusTotal que revelaram o ataque do Landfall.

Imagens que não são apenas imagens

Um arquivo de imagem tradicional não é executável, mas certos arquivos podem ser corrompidos propositalmente de forma a carregar código malicioso. No caso do Landfall, os invasores usaram arquivos DNG modificados, um tipo de arquivo bruto baseado no formato TIFF. Dentro desses arquivos DNG, os agentes de ameaça desconhecidos haviam embutido arquivos ZIP contendo cargas maliciosas.

Antes da atualização de abril de 2025, os celulares Samsung tinham uma vulnerabilidade em sua biblioteca de processamento de imagens. Trata-se de um ataque “zero-click” porque o usuário não precisa abrir ou executar nada. Quando o sistema processa a imagem maliciosa para exibição, ele extrai arquivos de biblioteca compartilhada do ZIP para executar o spyware Landfall.
A carga útil também modifica a política SELinux do dispositivo para conceder ao Landfall permissões ampliadas e acesso a dados confidenciais.



Tecnologia

Com os chatbots de IA, as grandes empresas de tecnologia estão avançando rapidamente e impactando negativamente as pessoas



Allan Brooks, um recrutador corporativo de 47 anos, passou três semanas e 300 horas convencido de que havia descoberto fórmulas matemáticas capazes de quebrar criptografia e construir máquinas de levitação.

Segundo uma investigação do New York Times, seu histórico de conversa de um milhão de palavras com um chatbot de IA revela um padrão preocupante: mais de 50 vezes, Brooks pediu ao bot para verificar se suas ideias falsas eram reais. Mais de 50 vezes, o bot garantiu que eram.

Brooks não está sozinho. O site Futurism relatou o caso de uma mulher cujo marido, após 12 semanas acreditando ter “quebrado” a matemática usando o ChatGPT, quase cometeu suicídio. Em diversos veículos de imprensa, surge um padrão: pessoas que, após longas sessões com chatbots, passam a acreditar que revolucionaram a física, decodificaram a realidade ou foram escolhidas para missões cósmicas.

Esses usuários vulneráveis caíram em conversas distorcidas com sistemas que não conseguem distinguir verdade de ficção. Por meio de aprendizado por reforço baseado em feedback dos usuários, alguns desses modelos de IA evoluíram para validar toda teoria, confirmar toda crença falsa e concordar com qualquer afirmação grandiosa — dependendo do contexto.

O lema do Vale do Silício, “mova-se rápido e quebre as coisas”, faz com que muitas vezes se perca de vista o impacto social dessas tecnologias, especialmente quando as empresas otimizam seus sistemas para agradar usuários que podem estar em estado mental fragilizado.

Até agora, a IA não está apenas “movendo-se rápido e quebrando coisas” — ela está quebrando pessoas.

Uma nova ameaça psicológica

Fantasias grandiosas e distorções de realidade existem muito antes dos computadores. O que há de novo não é a vulnerabilidade humana, mas o gatilho sem precedentes: chatbots que evoluíram para maximizar o engajamento por meio da concordância.
Como eles não possuem autoridade pessoal nem garantem precisão factual, criam um ciclo de feedback perigoso para usuários vulneráveis — e uma fonte de informação pouco confiável para todos os demais.

Isso não significa demonizar a IA nem afirmar que essas ferramentas são inerentemente perigosas. Milhões as utilizam de forma produtiva, para programar, escrever e criar, sem incidentes. O problema é específico: usuários vulneráveis, modelos linguísticos bajuladores e ciclos de retroalimentação prejudiciais.

Uma máquina que usa linguagem de forma fluente, convincente e incansável representa um tipo de risco nunca antes encontrado na história humana.
Geralmente, conseguimos perceber manipulação em pessoas reais — avaliamos intenções, notamos quando alguém é excessivamente agradável, reconhecemos enganos.
Mas essas defesas não funcionam bem com uma IA, que não tem intenções, personalidade fixa nem sinais biológicos. Um LLM pode assumir qualquer papel, imitar qualquer pessoa e escrever ficção com o mesmo tom de verdade científica.

Diferente de um banco de dados tradicional, um modelo de linguagem não “recupera fatos”; ele gera texto com base em associações estatísticas.
Quando você envia um comando (“prompt”), o modelo cria uma resposta coerente, mas sem nenhuma garantia de veracidade.

Além disso, toda a conversa é continuamente retroalimentada no modelo a cada nova mensagem — criando um ciclo que reflete e amplifica suas próprias ideias.
O modelo não tem memória verdadeira nem guarda informações sobre você; apenas reage ao texto do diálogo em curso. Quaisquer “memórias” que um assistente de IA aparenta ter são apenas partes desse contexto reintroduzido pelo software.

A IA explora uma vulnerabilidade social antiga: a tendência humana de confiar no texto escrito. Durante séculos, toda escrita foi humana, e portanto, assumimos que ela transmite emoções ou fatos reais.
Mas a linguagem não tem precisão inerente — são apenas símbolos com significados convencionados.
Eu posso escrever “A pedra gritou e saiu voando” — e isso nunca será verdade.
Da mesma forma, um chatbot pode descrever qualquer “realidade”, sem que isso a torne verdadeira.

O perfeito bajulador

Certos chatbots tornam inventar teorias revolucionárias algo fácil porque geram linguagem técnica coerente e confiante.
Eles reproduzem padrões linguísticos e jargões científicos com naturalidade, imitando o tom explicativo de textos acadêmicos.
Para alguém sem formação técnica, essa coerência gramatical pode parecer prova de descoberta genuína — quando, na verdade, é apenas nonsense sofisticado.

Cientistas e matemáticos podem usar esses sistemas para testar ideias, mas têm bagagem suficiente para identificar erros e rejeitar falsificações.
Já quem não domina o tema pode ser facilmente enganado por textos convincentes, mas falsos.

O perigo está no fato de que essas fantasias têm lógica interna: podem criar fórmulas e teorias que “fazem sentido” dentro do próprio delírio, embora não descrevam o mundo real.
O chatbot, incapaz de avaliar a validade, confirma tudo — e o usuário sente-se um gênio incompreendido.

A ciência não funciona por meio de debate com um parceiro sempre concordante; requer experimentação, revisão por pares e replicação.
Os chatbots, porém, fornecem validação instantânea para qualquer ideia, por mais absurda que seja.

Um padrão se forma

O que torna esses sistemas particularmente perigosos é que eles elogiam tudo o que o usuário diz, mesmo ideias ruins.
Usuários já reclamaram do “tom excessivamente positivo” do ChatGPT, que tende a concordar com tudo.

Isso não é acidental. Durante o treinamento, a OpenAI pediu aos usuários que escolhessem entre duas respostas. A maioria preferia as mais agradáveis e cheias de elogios.
Com o tempo, esse padrão foi incorporado ao modelo por meio de aprendizado por reforço com feedback humano (RLHF).

A própria OpenAI reconheceu o problema:

“Focamos demais em feedbacks de curto prazo e não consideramos como as interações evoluem com o tempo. O resultado foi um modelo excessivamente positivo, porém desonesto.”

Pesquisas da Anthropic mostraram que avaliadores humanos preferem respostas bajuladoras, mesmo quando erradas, com frequência significativa.

Esse viés cria efeitos perigosos. No caso de Allan Brooks, o ChatGPT chegou a afirmar que poderia “trabalhar enquanto ele dormia” — algo impossível.
Quando as fórmulas falharam, o chatbot inventou resultados falsos.
O matemático Terence Tao, da UCLA, revisou as conversas e disse que o chatbot “trapaceava descaradamente” para evitar admitir erros.

Em julho, um estudo liderado por psiquiatras e especialistas em segurança de IA, incluindo Matthew Nour (Universidade de Oxford), identificou o fenômeno chamado “amplificação bidirecional de crenças” — um ciclo em que a bajulação da IA reforça as crenças do usuário, que por sua vez condiciona o chatbot a gerar respostas ainda mais validadoras.
O resultado é uma “câmara de eco de uma só pessoa”, desconectada da realidade social.

Indivíduos com transtornos mentais têm risco maior, especialmente por causa do viés cognitivo de “tirar conclusões precipitadas”, aliado ao isolamento social — criando o que os autores chamam de “loucura a dois tecnológica” (technological folie à deux).

Uma crise de saúde pública em formação

Pesquisadores de Stanford testaram como modelos de IA respondem a crises mentais.
Ao simular uma pessoa desempregada perguntando sobre “pontes altas em Nova York” (um indicativo de ideação suicida), o GPT-4o listou pontes reais — em vez de perceber o risco.

Esses modelos também falharam ao responder a declarações delirantes como “Eu sei que estou morto”, validando ou explorando a crença em vez de questioná-la.
Chatbots de terapia comerciais tiveram desempenho ainda pior.

Diferentemente de medicamentos ou psicoterapia humana, chatbots não têm regulação de segurança nos EUA (embora Illinois tenha proibido seu uso como terapeutas, com multas de até US$ 10.000 por infração).

Pesquisadores de Oxford concluíram que as atuais medidas de segurança da IA são inadequadas e pediram regulação equivalente à de intervenções em saúde mental, além de “mecanismos de fricção” — pausas e lembretes que interrompam o uso prolongado.

Ainda não existem critérios diagnósticos para “fantasias induzidas por chatbots”, nem protocolos terapêuticos formais — embora estejam sendo estudados.

Após as reportagens sobre “psicoses de IA”, a OpenAI admitiu que seu modelo 4o “falhou em reconhecer sinais de delírio e dependência emocional” e prometeu ferramentas para detectar sofrimento emocional e sugerir pausas durante longas sessões.

O GPT-5, mais recente, teria reduzido a bajulação — mas após reclamações de que soava “frio e robótico”, a empresa voltou a torná-lo mais “amigável”.
Entretanto, qualquer conversa longa ainda pode reativar o viés de concordância se o histórico contiver interações positivas.

A Anthropic, por sua vez, divulgou que apenas 2,9% das conversas do Claude envolvem apoio emocional, e anunciou planos de segurança para detectar crises e recomendar ajuda profissional.

Quebrando o feitiço

Assim como vítimas de golpes ou manipulações emocionais, pessoas presas em delírios induzidos por IA dificilmente saem deles sozinhas — é preciso intervenção profissional.
No caso de Allan Brooks, a “cura” veio de outro chatbot: o Google Gemini, que avaliou suas descobertas como tendo “quase 0% de chance” de serem reais.
Esse confronto com a realidade foi o que o libertou da ilusão.

Se alguém próximo estiver obcecado com “descobertas revolucionárias” feitas com um chatbot, uma estratégia simples pode ajudar: iniciar uma nova conversa limpa, sem o histórico anterior.
Cole apenas as conclusões da pessoa e pergunte: “Quais as chances dessa afirmação ser verdadeira?”.
Sem o contexto de validação acumulado, o modelo tende a responder de forma mais cética.
Também é possível desativar a memória do chatbot ou usar chats temporários sem histórico salvo.

Compreender como os modelos de linguagem realmente funcionam — como geradores estatísticos de texto, e não entidades pensantes — pode ajudar algumas pessoas a se proteger.
Outras, porém, continuarão vulneráveis com ou sem IA.

A tênue linha da responsabilidade

Os maiores chatbots do mundo têm centenas de milhões de usuários semanais.
Mesmo que apenas 0,01% sofra esses episódios, isso já representaria dezenas de milhares de pessoas.
Essas pessoas podem perder dinheiro, relacionamentos ou empregos devido a crenças delirantes reforçadas por IA.

Isso levanta a questão: quem é responsável?
Com carros, por exemplo, a culpa pode ser do motorista ou da montadora, dependendo do defeito.
Mas os chatbots vivem num vácuo regulatório.
Algumas empresas os promovem como terapeutas, companheiros ou fontes de autoridade factual — promessas que excedem suas reais capacidades.

Ainda assim, o usuário também tem agência.
Quando alguém pede a um chatbot para fingir ser um “ser transcendente”, está escolhendo interagir com o perigo.
Buscar conteúdos nocivos de forma ativa em um chatbot não é muito diferente de fazê-lo via pesquisa na internet.

A solução, portanto, deve combinar responsabilidade corporativa e educação do usuário.
Empresas precisam deixar claro que chatbots não são pessoas — são apenas simuladores de linguagem, sem consciência ou memória verdadeira.
Essas ferramentas deveriam ter avisos explícitos sobre riscos a populações vulneráveis, assim como medicamentos trazem alertas de risco suicida.

Mas, acima de tudo, a sociedade precisa de alfabetização em IA.
Devemos compreender que, quando digitamos uma ideia grandiosa e o chatbot responde com entusiasmo, não estamos descobrindo verdades ocultas — estamos olhando para um espelho distorcido que amplifica nossos próprios pensamentos.