Browsing Category

Tecnologia

Notícias, Tecnologia

A Microsoft afirma que a IA pode criar ameaças de “dia zero” na biologia.



Uma equipe da Microsoft afirma ter usado inteligência artificial para descobrir uma vulnerabilidade “zero-day” nos sistemas de biossegurança usados ​​para prevenir o uso indevido de DNA.

Esses sistemas de triagem são projetados para impedir que as pessoas comprem sequências genéticas que poderiam ser usadas para criar toxinas ou patógenos mortais. Mas agora, pesquisadores liderados pelo cientista-chefe da Microsoft, Eric Horvitz, afirmam ter descoberto como contornar as proteções de uma maneira até então desconhecida pelos defensores da tecnologia.

A equipe descreveu seu trabalho hoje na revista Science .

Horvitz e sua equipe se concentraram em algoritmos de IA generativa que propõem novas formas de proteínas. Esses tipos de programas já estão impulsionando a busca por novos medicamentos em startups bem financiadas, como a Generate Biomedicines e a Isomorphic Labs, uma spin-off do Google.

O problema é que esses sistemas são potencialmente de “dupla utilização”. Eles podem usar seus conjuntos de treinamento para gerar moléculas tanto benéficas quanto prejudiciais.

A Microsoft afirma ter iniciado um teste de “equipe vermelha” sobre o potencial de uso duplo da IA ​​em 2023, a fim de determinar se o “design de proteínas por IA adversária” poderia ajudar bioterroristas a fabricar proteínas nocivas.

A medida de segurança que a Microsoft atacou é o que se conhece como software de triagem de biossegurança. Para produzir uma proteína, os pesquisadores geralmente precisam encomendar uma sequência de DNA correspondente de um fornecedor comercial, que então a inserem em uma célula. Esses fornecedores usam software de triagem para comparar os pedidos recebidos com toxinas ou patógenos conhecidos. Uma correspondência próxima acionará um alerta.

Para conceber seu ataque, a Microsoft utilizou diversos modelos generativos de proteínas (incluindo um modelo próprio, chamado EvoDiff) para redesenhar toxinas — alterando sua estrutura de forma a permitir que elas escapassem dos softwares de triagem, mas previa-se que mantivessem intacta sua função letal.

Os pesquisadores afirmam que o exercício foi inteiramente digital e que nunca produziram proteínas tóxicas. Isso foi feito para evitar qualquer percepção de que a empresa estivesse desenvolvendo armas biológicas.

Antes de publicar os resultados, a Microsoft afirma ter alertado o governo dos EUA e os fabricantes de software, que já corrigiram seus sistemas, embora algumas moléculas projetadas por IA ainda consigam escapar da detecção.

“A solução está incompleta e o estado da arte está mudando. Mas isso não é algo que se resolva de uma vez por todas. É o começo de ainda mais testes”, diz Adam Clore, diretor de P&D de tecnologia da Integrated DNA Technologies, uma grande fabricante de DNA, e coautor do relatório da Microsoft. “Estamos numa espécie de corrida armamentista.”

Para garantir que ninguém faça mau uso da pesquisa, os pesquisadores afirmam que não divulgarão parte do código e não revelaram quais proteínas tóxicas pediram à IA para redesenhar. No entanto, algumas proteínas perigosas são bem conhecidas, como a ricina — um veneno encontrado na mamona — e os príons infecciosos que causam a doença da vaca louca.

“Essa descoberta, combinada com os rápidos avanços na modelagem biológica habilitada por IA, demonstra a necessidade clara e urgente de procedimentos aprimorados de triagem da síntese de ácidos nucleicos, juntamente com um mecanismo confiável de fiscalização e verificação”, afirma Dean Ball, pesquisador da Foundation for American Innovation, um centro de estudos em São Francisco.

Ball observa que o governo dos EUA já considera a triagem de pedidos de DNA uma linha de segurança fundamental. Em maio passado, em uma ordem executiva sobre segurança em pesquisa biológica , o presidente Trump solicitou uma reformulação geral desse sistema, embora até o momento a Casa Branca não tenha divulgado novas recomendações.

Outros duvidam que a síntese comercial de DNA seja a melhor defesa contra agentes mal-intencionados. Michael Cohen, pesquisador de segurança de IA na Universidade da Califórnia, Berkeley, acredita que sempre haverá maneiras de disfarçar sequências e que a Microsoft poderia ter tornado seu teste mais difícil.

“O desafio parece frágil, e as ferramentas improvisadas que eles usam falham bastante”, diz Cohen. “Parece haver uma relutância em admitir que, em breve, teremos que recuar desse suposto ponto de estrangulamento, então devemos começar a procurar terreno que possamos de fato manter.”

Cohen afirma que a biossegurança provavelmente deveria ser incorporada aos próprios sistemas de IA — seja diretamente ou por meio de controles sobre as informações que eles fornecem.

Mas Clore afirma que monitorar a síntese de genes ainda é uma abordagem prática para detectar ameaças biológicas, já que a produção de DNA nos EUA é dominada por algumas poucas empresas que trabalham em estreita colaboração com o governo. Em contrapartida, a tecnologia usada para construir e treinar modelos de IA é mais difundida. “Não dá para voltar atrás”, diz Clore. “Se você tem os recursos para tentar nos enganar e nos fazer produzir uma sequência de DNA, provavelmente também consegue treinar um modelo de linguagem complexo.”



Notícias, Tecnologia

Os proprietários do hub inteligente Futurehome devem pagar uma nova assinatura de R$500 ou perderão o acesso



A fabricante de dispositivos para casas inteligentes Futurehome está forçando seus clientes a cederem ao exigir repentinamente uma assinatura para funcionalidades básicas de seus produtos.

Lançado em 2016, o Smarthub da Futurehome é comercializado como um hub central para controlar dispositivos conectados à internet em casas inteligentes. Durante anos, a empresa norueguesa vendeu seus produtos, que também incluem termostatos inteligentes, iluminação inteligente e alarmes inteligentes de incêndio e monóxido de carbono, por uma taxa única que incluía acesso ao aplicativo complementar e à plataforma em nuvem para controle e automação. No entanto, a partir de 26 de junho, esses recursos principais passaram a exigir uma assinatura anual de 1.188 NOK (cerca de US$ 116,56), transformando os dispositivos para casas inteligentes em dispositivos comuns caso os usuários não paguem.

“Você perde o acesso ao controle de dispositivos, configuração, automações, modos, atalhos e serviços de energia”, diz uma página de perguntas frequentes da empresa.

Além disso, não é possível obter suporte da Futurehome sem uma assinatura. A maioria dos recursos pagos também fica inacessível sem uma assinatura, segundo as perguntas frequentes da Futurehome, que afirma estar presente em 38.000 residências.

Após 26 de junho, os clientes tiveram quatro semanas para continuar usando seus dispositivos normalmente, sem assinatura. Esse período de carência terminou recentemente e agora os usuários precisam de uma assinatura para que seus dispositivos inteligentes funcionem corretamente.

Alguns usuários estão compreensivelmente desanimados por terem que pagar uma mensalidade repentinamente para usar dispositivos que já compraram. Usuários mais avançados também expressaram frustração com a possibilidade da Futurehome comprometer a funcionalidade de seus dispositivos ao conectá-los a um dispositivo local em vez da nuvem. Em suas perguntas frequentes, a Futurehome afirma que “não pode garantir que não haverá mudanças no futuro” em relação ao acesso à API local.

Em resposta, um usuário do Reddit, de acordo com uma tradução da publicação norueguesa fornecida pela plataforma, disse:

Até certo ponto, consigo entender que eles precisem fazer isso para serviços que têm custos contínuos, como servidores (embora eu ache que o problema seja deles, e não meu, por não terem percebido que era uma má ideia quando me venderam a solução), mas uma função local que só funciona internamente no equipamento que eu já paguei não deveria ser bloqueada por um paywall.

Segundo a Futurehome, os clientes sem assinatura ainda podem criar, excluir e alternar entre residências, editar usuários e proprietários de residências, além de atualizar e restaurar as configurações de fábrica de seus hubs inteligentes Futurehome.

O Ars Technica entrou em contato com a Futurehome para obter uma resposta às críticas dos clientes, mas não recebeu retorno até a publicação desta matéria.

A Futurehome declarou falência recentemente.
A empresa afirma que a falência recente tornou necessária a cobrança da taxa de assinatura. Sua página de perguntas frequentes (FAQ) informa:

A Futurehome AS foi declarada falida em 20 de maio de 2025. A plataforma e os serviços relacionados foram adquiridos da massa falida — 50% pelos antigos proprietários da Futurehome e 50% pela Sikom Connect — e agora são operados pela FHSD Connect AS.

Para garantir a operação estável, financiar o desenvolvimento de produtos e fornecer suporte de alta qualidade, estamos introduzindo um novo modelo de assinatura.

A empresa endividada prometeu aos clientes que a taxa de assinatura permitiria oferecer “melhor funcionalidade, mais segurança e maior valor na solução em que você já investiu”, relatou o Elektro247, um site norueguês de notícias sobre o setor elétrico, de acordo com uma tradução fornecida pelo Google.

O problema é que os clientes esperavam um certo nível de serviço e funcionalidade ao comprarem os dispositivos Futurehome. E, até o momento da publicação desta notícia, as páginas de produtos da Futurehome não deixam claras as novas exigências de assinatura. A recente falência da Futurehome também serve como um lembrete da instabilidade da empresa, tornando questionáveis ​​novos investimentos.

Os usuários estão discutindo maneiras de tentar restaurar a funcionalidade dos dispositivos Futurehome sem uma assinatura, inclusive migrando os dispositivos para padrões abertos. No entanto, a comunicação provavelmente foi prejudicada pelo fechamento do fórum de usuários da Futurehome em junho.

A Futurehome tem combatido as tentativas de quebrar a segurança de seu firmware. O CEO Øyvind Fries declarou ao site norueguês de tecnologia para o consumidor Tek.no, segundo tradução do Google: “É lamentável que agora tenhamos que investir tempo e recursos reforçando a segurança de um serviço popular em vez de desenvolver novas funcionalidades para o benefício de nossos clientes.”

A estratégia da Futurehome tornou-se comum entre empresas da Internet das Coisas (IoT), incluindo a Wink, fabricante de hubs para casas inteligentes. Essas empresas ainda lutam para construir negócios sustentáveis ​​a longo prazo, sem eliminar funcionalidades ou aumentar os preços para os clientes.



Notícias, Segurança, Tecnologia

O Google confirmou que assinará o Código de Práticas de IA da União Europeia



As grandes empresas de tecnologia estão cada vez mais viciadas em IA, mas muitas delas são alérgicas à regulamentação, resistindo às sugestões de que devem cumprir as leis de direitos autorais e fornecer dados sobre o treinamento. Em uma atitude incomum, o Google confirmou que assinará o Código de Práticas de IA da União Europeia, uma estrutura à qual inicialmente se opôs por considerá-la muito rigorosa. No entanto, o Google não está totalmente de acordo com os esforços da Europa para conter a explosão da IA. O chefe de assuntos globais da empresa, Kent Walker, observou que o código pode sufocar a inovação se não for aplicado com cuidado, e isso é algo que o Google espera evitar.

Embora o Google tenha se oposto inicialmente ao Código de Práticas, Walker afirma que as contribuições que a empresa forneceu à Comissão Europeia foram bem recebidas e o resultado é uma estrutura legal que, segundo a empresa, pode fornecer à Europa acesso a “ferramentas de IA seguras e de primeira linha”. A empresa afirma que a expansão dessas ferramentas no continente poderia impulsionar a economia em 8% (cerca de 1,8 trilhão de euros) anualmente até 2034.

Esses supostos ganhos econômicos estão sendo usados ​​como isca para atrair empresas da UE a se alinharem com o Google no Código de Práticas. Embora a empresa esteja assinando o acordo, parece interessada em influenciar a forma como ele será implementado. Walker afirma que o Google continua preocupado com o fato de que diretrizes mais rígidas sobre direitos autorais e a divulgação forçada de possíveis segredos comerciais possam desacelerar a inovação. Ter voz ativa nas negociações pode facilitar a manipulação da regulamentação, em comparação com a decisão de alguns concorrentes de não aderir voluntariamente ao acordo.

A posição do Google contrasta fortemente com a da Meta, que se recusa firmemente a assinar o acordo. A empresa proprietária do Facebook alega que o Código de Práticas voluntário pode impor muitas limitações ao desenvolvimento de modelos de ponta, uma posição previsível, considerando que a empresa busca impulsionar seu projeto de “superinteligência”. A Microsoft ainda está analisando o acordo e pode acabar assinando-o, mas a OpenAI, criadora do ChatGPT, já sinalizou que assinará o código.

A regulamentação dos sistemas de IA pode ser o próximo obstáculo, à medida que as grandes empresas de tecnologia buscam implementar tecnologias consideradas transformadoras e vitais para o futuro. Produtos do Google, como a Busca e o Android, estão na mira dos reguladores da UE há anos, portanto, entrar no mercado desde o início com o código de IA ajudaria a empresa a navegar no que certamente será um ambiente jurídico turbulento.

Uma estrutura abrangente para IA
Os EUA têm evitado a regulamentação da IA, e o governo atual está trabalhando ativamente para remover os poucos limites existentes. A Casa Branca chegou a tentar proibir toda a regulamentação de IA em nível estadual por um período de 10 anos na recente reforma tributária. A Europa, por sua vez, está levando a sério os possíveis impactos negativos das ferramentas de IA, com uma estrutura regulatória em rápida evolução.

O Código de Práticas de IA visa proporcionar às empresas de IA um pouco mais de segurança diante de um cenário em constante mudança. Ele foi desenvolvido com a contribuição de mais de 1.000 grupos de cidadãos, acadêmicos e especialistas do setor. A Comissão Europeia afirma que as empresas que adotarem o código voluntário terão uma carga burocrática menor, facilitando o cumprimento da Lei de IA do bloco, que entrou em vigor no ano passado.

De acordo com os termos do código, o Google terá que publicar resumos dos dados de treinamento de seus modelos e divulgar recursos adicionais dos modelos aos órgãos reguladores. O código também inclui orientações sobre como as empresas devem gerenciar a segurança em conformidade com a Lei de IA. Da mesma forma, inclui caminhos para alinhar o desenvolvimento de modelos de uma empresa com a lei de direitos autorais da UE no que diz respeito à IA, um ponto sensível para o Google e outras empresas.

Empresas como a Meta, que não assinarem o código, não escaparão da regulamentação. Todas as empresas de IA que operam na Europa terão que cumprir a Lei de IA, que inclui a estrutura regulatória mais detalhada para sistemas de IA generativa do mundo. A lei proíbe usos de alto risco de IA, como engano ou manipulação intencional de usuários, sistemas de pontuação social e escaneamento biométrico em tempo real em espaços públicos. Empresas que violarem as normas da Lei de Inteligência Artificial poderão ser multadas em até 35 milhões de euros (40,1 milhões de dólares) ou até 7% da receita global da infratora.



Notícias, Tecnologia

Ferramenta do Google usada indevidamente para apagar o passado obscuro de CEO de empresa de tecnologia das buscas



O Google gosta de dizer que sua missão é “organizar as informações do mundo”, mas quem decide quais informações merecem ser organizadas? Um CEO de uma empresa de tecnologia de São Francisco passou os últimos anos tentando remover informações desfavoráveis ​​sobre si mesmo do índice de buscas do Google, e a organização sem fins lucrativos Freedom of the Press Foundation afirma que ele continua nessa empreitada. Mais recentemente, um agente malicioso desconhecido explorou uma falha em uma das ferramentas de busca do Google para apagar os artigos ofensivos.

A saga começou em 2023, quando o jornalista independente Jack Poulson noticiou a prisão de Maury Blackman por violência doméstica em 2021. Blackman, que na época era CEO da empresa de tecnologia de vigilância Premise Data Corp., se sentiu ofendido com a publicação de seus problemas legais. O caso não resultou em acusações depois que a namorada de Blackman, de 25 anos, retratou suas alegações contra o CEO de 53 anos, mas Poulson relatou alguns detalhes preocupantes da reportagem pública sobre a prisão.

Blackman já havia utilizado ferramentas como notificações de remoção por violação de direitos autorais (DMCA) e processos judiciais para sufocar a cobertura jornalística de sua indiscrição, mas essa campanha agora parece ter se apropriado de parte do mecanismo de busca do Google. A Freedom of the Press Foundation (FPF) relatou o trabalho de Poulson e as tentativas de Blackman de combatê-lo no final do ano passado. Em junho, Poulson contatou a Freedom of the Press Foundation para relatar que o artigo havia desaparecido misteriosamente dos resultados de busca do Google.

A fundação iniciou uma investigação imediatamente, que a levou a um recurso pouco conhecido do Google chamado “Atualizar conteúdo desatualizado”. O Google criou essa ferramenta para que os usuários denunciassem links com conteúdo que não é mais preciso ou que levam a páginas de erro. Quando funciona corretamente, o “Atualizar conteúdo desatualizado” pode ajudar a tornar os resultados de busca do Google mais úteis. No entanto, a Freedom of the Press Foundation afirma agora que uma falha permitiu que um agente malicioso desconhecido apagasse da internet as menções à prisão de Blackman.

Com F maiúsculo de “Frustrante”
Ao investigar, a FPF descobriu que seu artigo sobre Blackman estava completamente ausente dos resultados do Google, mesmo em uma busca com o título exato. Poulson percebeu posteriormente que dois de seus próprios artigos no Substack estavam afetados da mesma forma. A Fundação foi direcionada à ferramenta Atualizar Conteúdo Desatualizado ao verificar seu console de busca.

A ferramenta do Google não aceita sugestões de remoção de resultados de busca sem questionar. No entanto, um bug na ferramenta a tornou uma maneira ideal de suprimir informações nos resultados de busca. Ao inserir uma URL, a ferramenta permitia que os usuários alterassem a capitalização no slug da URL. O artigo da Fundação tinha o título “Anatomia de uma campanha de censura: a cruzada de um executivo de tecnologia para sufocar o jornalismo”, mas as solicitações registradas na ferramenta do Google incluíam variações como “AnAtomia” e “censura”.

Como a função “Atualizar conteúdo desatualizado” aparentemente ignorava maiúsculas e minúsculas, o rastreador verificava a URL, encontrava um erro 404 e, em seguida, desindexava a URL em funcionamento. Os investigadores determinaram que esse método foi usado por Blackman ou por alguém com interesse suspeito em seu perfil online dezenas de vezes entre maio e junho de 2025. Curiosamente, desde que deixou a Premise, Blackman assumiu o cargo de CEO na empresa de gestão de reputação online The Transparency Company.

Se você procurar o artigo da Freedom of the Press Foundation ou a própria reportagem de Poulson, ele deverá aparecer normalmente nos resultados de busca do Google. A FPF contatou o Google sobre o problema, e a empresa confirmou a existência do bug. Ela lançou uma correção com uma rapidez incomum, informando à Fundação que o bug afetava “uma pequena fração de sites”.

Não está claro se o Google tinha conhecimento prévio do bug ou se sua exploração era generalizada. A internet é vasta, e aqueles que buscam ocultar informações maliciosamente não costumam divulgar seus métodos. É um tanto incomum o Google admitir a culpa tão prontamente, mas pelo menos resolveu o problema.



Notícias, Tecnologia

A China alega que a Nvidia inseriu uma porta dos fundos no chip H20 projetado para o mercado chinês.



Pequim convocou a Nvidia devido a supostos problemas de segurança em seus chips, um revés para os esforços da empresa americana em reativar as vendas no país após Washington ter aprovado a exportação de um chip desenvolvido especificamente para a China.

A agência reguladora de cibersegurança da China afirmou na quinta-feira ter realizado uma reunião com a Nvidia sobre o que chamou de “sérios problemas de segurança” com os chips de inteligência artificial da empresa. Segundo a agência, especialistas americanos em IA “revelaram que os chips de computação da Nvidia possuem rastreamento de localização e podem desligar a tecnologia remotamente”.

A Administração do Ciberespaço da China solicitou que a Nvidia explique os problemas de segurança associados ao chip H2O, projetado para o mercado chinês a fim de cumprir as restrições de exportação dos EUA, e apresente documentação para fundamentar sua alegação. O anúncio ocorre em um momento em que a Nvidia está reconstruindo seus negócios na China após Washington ter suspendido, neste mês, a proibição de vendas do H2O para o país.

Após a mudança de posição de Washington, o CEO da Nvidia, Jensen Huang, visitou Pequim para se reunir com autoridades e clientes. Ele enfatizou o compromisso da empresa com o mercado chinês e apresentou uma nova unidade de processamento gráfico baseada na mais recente série Blackwell, adaptada para atender aos controles de exportação americanos vigentes. Paul Triolo, especialista em tecnologia chinesa e sócio do DGA-Albright Stonebridge Group, disse estar “cético” em relação às alegações de que uma porta dos fundos foi deliberadamente incorporada ao hardware da Nvidia, apontando para a falta de detalhes no anúncio.

A CAC não especificou quais especialistas encontraram uma porta dos fundos nos produtos da Nvidia, nem se algum teste na China revelou os mesmos resultados. A Nvidia não respondeu imediatamente a um pedido de comentário.

Legisladores em Washington expressaram preocupação com o contrabando de chips e apresentaram um projeto de lei que exigiria que fabricantes de chips, como a Nvidia, incorporassem rastreamento de localização em hardware controlado para exportação.

Pequim emitiu orientações informais para os principais grupos de tecnologia chineses aumentarem as compras de chips de IA nacionais, a fim de reduzir a dependência da Nvidia e apoiar a evolução de um ecossistema de chips doméstico rival.

A gigante chinesa de tecnologia Huawei e grupos menores, incluindo Biren e Cambricon, se beneficiaram do incentivo à localização das cadeias de suprimentos de chips.

A Nvidia afirmou que levaria nove meses desde a retomada da fabricação até o envio do H2O aos clientes. Especialistas do setor disseram que havia considerável incerteza entre os clientes chineses sobre se eles seriam capazes de receber seus pedidos caso os EUA revertessem sua decisão de permitir a venda.

O governo Trump tem enfrentado fortes críticas, inclusive de especialistas em segurança e ex-funcionários, que argumentam que a venda de H2O aceleraria o desenvolvimento de IA na China e ameaçaria a segurança nacional dos EUA.

“Há facções fortes em ambos os lados do Pacífico que não gostam da ideia de renovar a venda de H2O”, disse Triolo. “Nos EUA, a oposição é clara, mas também na China há vozes dizendo que isso atrasará a transição para um ecossistema alternativo.”



Notícias, Tecnologia

Pesquisa com desenvolvedores mostra que a confiança em ferramentas de programação com IA está diminuindo à medida que seu uso aumenta



As ferramentas de IA são amplamente utilizadas por desenvolvedores de software, mas esses desenvolvedores e seus gerentes ainda estão buscando a melhor maneira de utilizá-las, enfrentando dificuldades iniciais ao longo do caminho.

Essa é a conclusão da pesquisa mais recente realizada pela Stack Overflow, uma comunidade e plataforma de informações com 49.000 desenvolvedores profissionais, que também foi fortemente impactada pela adição de grandes modelos de linguagem (LLMs) aos fluxos de trabalho dos desenvolvedores.

A pesquisa constatou que quatro em cada cinco desenvolvedores usarão ferramentas de IA em seus fluxos de trabalho em 2025 — uma parcela que vem crescendo rapidamente nos últimos anos. Dito isso, “a confiança na precisão da IA ​​caiu de 40% nos anos anteriores para apenas 29% este ano”.

A disparidade entre essas duas métricas ilustra o impacto complexo e em constante evolução de ferramentas de IA como o GitHub Copilot ou o Cursor na profissão. Há relativamente pouco debate entre os desenvolvedores sobre a utilidade dessas ferramentas, ou se elas deveriam ser úteis, mas as pessoas ainda estão descobrindo quais são as melhores aplicações (e limitações).

Ao serem questionados sobre sua maior frustração com ferramentas de IA, 45% dos entrevistados disseram ter dificuldades com “soluções de IA que são quase certas, mas não totalmente” — o problema mais relatado. Isso ocorre porque, diferentemente de resultados claramente incorretos, esses podem introduzir bugs insidiosos ou outros problemas difíceis de identificar imediatamente e relativamente demorados para solucionar, especialmente para desenvolvedores juniores que abordaram o trabalho com uma falsa sensação de confiança devido à sua dependência da IA.

Como resultado, mais de um terço dos desenvolvedores na pesquisa “relatam que algumas de suas visitas ao Stack Overflow são consequência de problemas relacionados à IA”. Ou seja, sugestões de código aceitas por uma ferramenta baseada em LLM introduziram problemas que, posteriormente, precisaram ser resolvidos por outras pessoas.

Mesmo com as grandes melhorias recentes proporcionadas por modelos otimizados para raciocínio, essa falta de confiabilidade do “quase certo, mas não totalmente” dificilmente desaparecerá por completo; ela é inerente à própria natureza do funcionamento da tecnologia preditiva.

Por isso, 72% dos participantes da pesquisa disseram que a “programação intuitiva” não faz parte de seu trabalho profissional; alguns consideram-na muito instável e capaz de gerar problemas difíceis de depurar, inadequados para produção.

Por que os desenvolvedores ainda usam essas ferramentas?
Então, considerando todo esse ceticismo e frustração, por que os desenvolvedores ainda usam essas ferramentas? Bem, em alguns casos, seus gerentes estão tentando forçá-los a usá-las. Mas, mais comumente, é porque as ferramentas ainda são claramente úteis — só é importante não usá-las de forma inadequada.

É importante que gerentes e colaboradores individuais integrem ferramentas de IA ao fluxo de trabalho, juntamente com um treinamento robusto, para garantir uma compreensão profunda das melhores práticas, de modo que as ferramentas não sejam usadas de forma inadequada, criando mais problemas do que soluções ou desperdiçando mais tempo do que economizando.

Os desenvolvedores precisam confiar menos em recursos como as sugestões de autocompletar do Copilot, tratando-as mais como um ponto de partida do que simplesmente pressionando Tab e seguindo em frente. Ferramentas como essa são mais adequadas para um tipo de relacionamento limitado de programação em pares: pedir ao desenvolvedor que encontre problemas ou sugira soluções mais elegantes que você considere criticamente, e não que sugira métodos completos que você aceite sem questionar.

Elas também podem ser úteis para aprendizado. A oportunidade de estar sempre aprendendo, adquirindo familiaridade constante com novas linguagens, frameworks ou metodologias, é um dos fatores que atraem algumas pessoas para a área, e os LLMs (Licensed Language Masters) podem reduzir o atrito nesse processo, respondendo a perguntas de forma mais direcionada do que seria possível com buscas trabalhosas em documentação técnica frequentemente incompleta — exatamente o tipo de coisa para a qual as pessoas usavam o Stack Overflow no passado.

“Embora tenhamos observado uma queda no tráfego, ela não é tão drástica quanto alguns indicam”, disse Jody Bailey, Diretora de Produtos e Tecnologia do Stack Overflow, em um comentário ao VentureBeat. O Stack Overflow planeja investir parte de seus recursos tanto na expansão do conhecimento sobre ferramentas de IA quanto no fomento de discussões na comunidade que ajudem a resolver problemas específicos de fluxos de trabalho que envolvem essas ferramentas.



Notícias, Tecnologia

O Google lança o Gemini 2.5 Deep Think para assinantes do AI Ultra



O Google está lançando hoje seu modelo Gemini mais poderoso, mas provavelmente você não poderá experimentá-lo. Após revelar o Gemini 2.5 Deep Think na conferência I/O em maio, o Google está disponibilizando essa IA no aplicativo Gemini. O Deep Think foi projetado para as consultas mais complexas, o que significa que utiliza mais recursos computacionais do que outros modelos. Portanto, não é surpresa que apenas os assinantes do plano AI Ultra do Google, que custa US$ 250, poderão acessá-lo.

O Deep Think é baseado na mesma estrutura do Gemini 2.5 Pro, mas aumenta o “tempo de processamento” com uma análise paralela mais robusta. Segundo o Google, o Deep Think explora múltiplas abordagens para um problema, inclusive revisitando e recombinando as diversas hipóteses geradas. Esse processo o ajuda a criar um resultado de maior qualidade.

Assim como outras ferramentas robustas do Gemini, o Deep Think leva vários minutos para encontrar uma resposta. Isso aparentemente torna a IA mais apta para estética de design, raciocínio científico e programação. O Google submeteu o Deep Think à bateria usual de benchmarks, mostrando que ele supera o Gemini 2.5 Pro padrão e modelos concorrentes como o OpenAI o3 e o Grok 4. O Deep Think apresenta um ganho particularmente significativo no Humanity’s Last Exam (AIME), uma coleção de 2.500 questões complexas e multimodais que abrangem mais de 100 disciplinas. Outros modelos atingem um máximo de 20% ou 25%, mas o Gemini 2.5 Deep Think alcançou uma pontuação de 34,8%.

A matemática é um foco importante do Deep Think, que também demonstra um desempenho sólido no benchmark AIME. Ainda há trabalho a ser feito, no entanto. O Google revelou recentemente que utilizou uma versão especialmente treinada do Deep Think, capaz de processar informações por horas antes de encontrar uma solução, para competir na Olimpíada Internacional de Matemática (IMO). Este modelo conquistou a medalha de ouro da IMO pela primeira vez. O Google distribuiu a versão da Deep Think aprovada pela IMO apenas para testadores de confiança, mas espera lançá-la para um público mais amplo posteriormente. Enquanto isso, a versão padrão da Deep Think ainda alcança o status de medalha de bronze no teste da IMO de 2025.

Os assinantes do Google AI Ultra poderão acessar o Deep Think a partir de hoje no aplicativo Gemini e na interface web, mas ele não está presente no menu principal do modelo. Ele fica acessível como uma ferramenta (juntamente com o Deep Research, Canvas e outras) ao selecionar o Gemini 2.5 Pro. Mesmo com a assinatura cara do Google AI, a empresa afirma que há um limite definido para o número de consultas do Deep Think por dia. A Google não especifica qual é esse limite, e não oferece detalhes, o que sugere que ele poderá mudar com o tempo. O Deep Think eventualmente chegará à API, oferecendo aos desenvolvedores uma maneira de acessar mais prompts como um serviço pago.



Inovação, Notícias, Tecnologia

Citando as “condições de mercado”, a Nintendo aumenta os preços dos consoles Switch originais



A desaceleração do progresso tecnológico, a inflação e as guerras comerciais globais estão impactando os preços dos consoles de videogame este ano, e as más notícias não param de chegar. A Nintendo adiou a pré-venda do Switch 2 nos EUA e aumentou os preços dos acessórios, enquanto a Microsoft aumentou os preços de seus consoles Series S e X em maio.

Hoje, a Nintendo volta a aumentar os preços do console Switch original, além de alguns Amiibo, do despertador Alarmo e de alguns acessórios para Switch e Switch 2. Os aumentos de preço entrarão em vigor oficialmente em 3 de agosto.

A empresa afirma que, por enquanto, não haverá aumentos de preço para o console Switch 2, assinaturas do Nintendo Online e jogos físicos e digitais para Switch 2. Mas não descartou a possibilidade de futuros aumentos, observando que “ajustes de preço podem ser necessários no futuro”.

A Nintendo não anunciou a magnitude dos aumentos, mas algumas lojas já estavam vendendo os consoles com preços mais altos na sexta-feira. A Target agora vende o Switch Lite por US$ 229,99, ante os US$ 199,99 anteriores. O preço do Nintendo Switch original subiu de US$ 299,99 para US$ 339,99; e o modelo OLED do Switch chegou a impressionantes US$ 399,99, contra US$ 349,99, apenas US$ 50 a menos que o preço do muito mais potente Switch 2.

Listagens da Target também sugerem que os controles Joy-Con 2 terão seus preços aumentados de US$ 95 para US$ 100 (vale lembrar que o preço original era de US$ 90 quando foram anunciados em abril), e alguns Joy-Cons para o Switch original agora estão listados por US$ 90 em vez dos habituais US$ 80.

A Nintendo citou apenas “condições de mercado” para explicar os aumentos, mas eles provavelmente estão relacionados a uma nova rodada de tarifas impostas pelo governo Trump, inclusive contra países como Tailândia, Índia, Camboja e outros para os quais algumas empresas haviam transferido a produção depois que o primeiro governo Trump começou a impor tarifas mais altas sobre a China. O governo também decidiu acabar com as isenções tarifárias gerais “de minimis” para todos os países, uma prática que isentava de tarifas pacotes com valor igual ou inferior a US$ 800; o governo já havia encerrado a isenção “de minimis” para importações da China e de Hong Kong em maio. O fim da isenção “de minimis” afetará desproporcionalmente itens como roupas, pequenos eletrônicos e outros produtos e acessórios para entusiastas, incluindo aqueles enviados diretamente aos consumidores.

Apesar do lançamento do Switch 2 e da ampla retrocompatibilidade do Switch 2 com a biblioteca de jogos do Switch original, a Nintendo ainda mantém o Switch original como um console de entrada. Embora seu hardware de 2017 apresente dificuldades com alguns jogos, a Nintendo ainda planeja lançar versões para Switch e Switch 2 de alguns de seus lançamentos de jogos mais aguardados neste outono, incluindo Metroid Prime 4 e Pokémon Legends: Z-A.

 



Notícias, Tecnologia

A Amazon está considerando inserir anúncios em conversas com a Alexa+



Desde 2023, a Amazon vem apresentando a Alexa+ como uma evolução monumental de sua assistente de voz, que a tornará mais conversacional, capaz e, para a Amazon, lucrativa. Em um comunicado à imprensa divulgado na quinta-feira, a Amazon afirmou ter concedido acesso antecipado à assistente de voz com inteligência artificial generativa para “milhões” de pessoas. O produto ainda não está disponível para o público em geral e alguns recursos anunciados ainda não estão disponíveis, mas o CEO da Amazon já está considerando a possibilidade de incluir anúncios no chatbot.

Durante uma teleconferência com investidores ontem, conforme relatado pelo TechCrunch, Andy Jassy observou que a Alexa+ começou a ser disponibilizada em acesso antecipado para alguns clientes nos EUA e que um lançamento mais amplo, inclusive internacional, deve ocorrer ainda este ano. Um analista presente na teleconferência questionou os executivos da Amazon sobre o potencial da Alexa+ para “aumentar o engajamento” a longo prazo.

De acordo com a transcrição da chamada, Jassy respondeu dizendo, em parte: “Acho que, com o tempo, haverá oportunidades, à medida que as pessoas se envolverem em conversas mais complexas, para que a publicidade desempenhe um papel importante, ajudando as pessoas a descobrirem novos produtos e também como uma alavanca para gerar receita.”

Assim como outros assistentes de voz, a Alexa ainda não monetizou seus usuários. A Amazon espera finalmente lucrar com o serviço por meio do Alexa+, que deverá desempenhar um papel maior no comércio eletrônico, incluindo reservas em restaurantes, controle e pedidos de supermercado e recomendação de conteúdo de streaming com base nos interesses declarados. Mas, com a Alexa custando à Amazon cerca de US$ 25 bilhões em quatro anos, a empresa está buscando outras formas de obter lucro.

Os dispositivos Echo Show já exibem anúncios, e os usuários de alto-falantes Echo podem ouvir anúncios enquanto ouvem música. Os anunciantes demonstraram interesse em anunciar no Alexa+, mas a inclusão de anúncios em uma nova oferta como o Alexa+ pode afastar os usuários.

Como Joel Daly, cofundador da agência de marketing Artemis Ward, disse ao Digiday em março:

Eles [a Amazon] reconhecem o risco de alienar o público que ainda não viu todo o potencial dos assistentes de voz, que ainda não foi totalmente explorado, sem mencionar as preocupações com a privacidade. A combinação de publicidade personalizada com a percepção de invasão de privacidade causada por dispositivos de voz que estão sempre ouvindo pode desencorajar a adoção.

Embora Jassy tenha apresentado os anúncios do Alexa+ como uma forma de ajudar os usuários a encontrar conteúdo de seu interesse, os anúncios parecem mais voltados para resolver os problemas financeiros da Amazon com os assistentes de voz do que para ajudar os clientes a encontrar informações relevantes de forma rápida e confiável. Vale ressaltar, porém, que a Amazon não é a única fabricante de chatbots a explorar anúncios: o Google AI Overview, por exemplo, já exibe anúncios, e o Google vem testando anúncios no Modo IA. O CEO da OpenAI, Sam Altman, não descartou a possibilidade de anúncios no ChatGPT.

Mas o Alexa+ ainda está em fase inicial, o que significa que as maiores prioridades da Amazon são alcançar a concorrência, lançar mais recursos prometidos para o Alexa+ e disponibilizar o chatbot ao público.

Além dos anúncios, Jassy está considerando outras maneiras de evitar que o Alexa+ seja o fracasso financeiro de seu antecessor. O serviço ainda está disponível apenas em acesso antecipado para proprietários do Echo Show 8, 15 e 21 nos EUA, mas, assim que for lançado para o público em geral, será gratuito para assinantes do Amazon Prime (o Prime custa a partir de US$ 15 por mês) ou US$ 20 por mês para quem não é assinante. Durante a teleconferência de resultados de ontem, Jassy mencionou a possibilidade de cobrar um valor adicional pelos recursos do Alexa+ à medida que forem disponibilizados.

“Ainda estamos no início, mas estamos muito animados com a experiência que estamos oferecendo e podem ter certeza de que vamos aprimorá-la constantemente”, disse ele.



Inovação, Tecnologia

DeepMind revela o “modelo mundial” Genie 3, que cria simulações interativas em tempo real



Embora ninguém tenha descoberto como lucrar com inteligência artificial generativa, isso não impediu o Google DeepMind de expandir os limites do que é possível com uma grande quantidade de inferência. As capacidades (e os custos) desses modelos têm apresentado uma trajetória ascendente impressionante, uma tendência exemplificada pela apresentação do Genie 3. Apenas sete meses após exibir o Genie 2, um “modelo de mundo fundamental” que já era uma melhoria significativa em relação ao seu antecessor, o Google agora apresenta o Genie 3.

Com o Genie 3, basta um comando ou imagem para criar um mundo interativo. Como o ambiente é gerado continuamente, ele pode ser alterado instantaneamente. É possível adicionar ou alterar objetos, modificar as condições climáticas ou inserir novos personagens — o DeepMind chama isso de “eventos acionáveis ​​por comando”. A capacidade de criar ambientes 3D alteráveis ​​pode tornar os jogos mais dinâmicos para os jogadores e oferecer aos desenvolvedores novas maneiras de testar conceitos e designs de níveis. No entanto, muitos na indústria de jogos expressaram dúvidas sobre a eficácia dessas ferramentas.

É tentador pensar no Genie 3 simplesmente como uma forma de criar jogos, mas a DeepMind também o vê como uma ferramenta de pesquisa. Os jogos desempenham um papel significativo no desenvolvimento da inteligência artificial porque proporcionam ambientes interativos e desafiadores com progresso mensurável. É por isso que a DeepMind já havia recorrido a jogos como Go e StarCraft para expandir os limites da IA.

Os modelos de mundo levam isso a um novo patamar, gerando um mundo interativo quadro a quadro. Isso oferece a oportunidade de refinar o comportamento dos modelos de IA — incluindo os chamados “agentes incorporados” — quando encontram situações do mundo real. Uma das principais limitações enfrentadas pelas empresas em busca da inteligência artificial geral (AGI) é a escassez de dados de treinamento confiáveis. Depois de praticamente todas as páginas da web e vídeos do planeta serem inseridos em modelos de IA, os pesquisadores estão se voltando para dados sintéticos para diversas aplicações. A DeepMind acredita que os modelos de mundo podem ser uma peça fundamental nesse esforço, pois podem ser usados ​​para treinar agentes de IA com mundos interativos praticamente ilimitados.

A DeepMind afirma que o Genie 3 representa um avanço importante, pois oferece fidelidade visual muito superior à do Genie 2 e opera em tempo real. Utilizando o teclado, é possível navegar pelo mundo simulado em resolução 720p a 24 quadros por segundo. Talvez ainda mais importante, o Genie 3 consegue memorizar o mundo que cria.

A forma como os agentes de IA se integram aos modelos do mundo real também é limitada. Embora seja possível criar mundos e eventos interativos com condições realistas, os agentes não têm um papel nisso. Sua interação com o mundo simulado se limita a se movimentar dentro dele, já que os agentes atuais não possuem o raciocínio de alto nível necessário para alterar a simulação. A DeepMind também continua experimentando maneiras de permitir que vários agentes de IA interajam entre si em um ambiente compartilhado. Talvez vejamos isso no Genie 4 daqui a alguns meses?

Mesmo aqueles dispostos a pagar centenas de dólares por mês por assinaturas premium de IA descobriram que existem limites de uso para os modelos maiores e mais caros. O Genie 3, essencialmente, renderiza um vídeo muito longo tão rapidamente que parece interativo, o que certamente consome muita capacidade de processamento. O Google DeepMind não está oferecendo detalhes específicos sobre isso, mas o fato de não ser possível usá-lo diz muito.

O Genie 3 continua sendo uma ferramenta de pesquisa, mas com recursos que a DeepMind claramente quer demonstrar. A equipe planeja conceder acesso a um grupo de especialistas e pesquisadores que ajudarão a refinar o modelo. Eles sugerem, no entanto, que o plano é abrir o acesso aos modelos do Genie World para mais pessoas.