Browsing Category

Notícias

Notícias

A corrida para criar o bebê perfeito está gerando um dilema ético



Imagine, por um instante, a mancha translúcida na lente de um microscópio: um blastocisto humano, o espécime biológico que emerge cerca de cinco dias após o encontro fatídico entre o óvulo e o espermatozoide. Esse aglomerado de células, do tamanho de um grão de areia retirado de uma praia caribenha de areia branca e fina, contém o potencial latente de uma vida futura: 46 cromossomos, milhares de genes e aproximadamente seis bilhões de pares de bases de DNA — um manual de instruções para construir um ser humano único.

Agora imagine um pulso de laser abrindo um buraco na camada mais externa do blastocisto para que um punhado de células possa ser aspirado por uma micropipeta. Este é o momento, graças aos avanços na tecnologia de sequenciamento genético, em que se torna possível ler praticamente todo esse manual de instruções.

Um campo emergente da ciência busca usar a análise obtida a partir desse procedimento para prever que tipo de pessoa aquele embrião poderá se tornar. Alguns pais recorrem a esses testes para evitar transmitir doenças genéticas devastadoras que são comuns em suas famílias. Um grupo muito menor, movido pelo sonho de obter diplomas em universidades de prestígio ou de ter filhos atraentes e bem-comportados, está disposto a pagar dezenas de milhares de dólares para otimizar a inteligência, a aparência e a personalidade. Alguns dos primeiros e mais entusiasmados defensores dessa tecnologia são membros da elite do Vale do Silício, incluindo bilionários da tecnologia como Elon Musk, Peter Thiel e Brian Armstrong, CEO da Coinbase.

A seleção de embriões se assemelha menos a uma oficina de “construa um bebê” e mais a uma loja onde os pais podem escolher seus futuros filhos entre vários modelos disponíveis — cada um com sua respectiva ficha técnica.

Mas os clientes das empresas que estão surgindo para fornecer esse serviço ao público podem não estar recebendo o que pagam. Especialistas em genética vêm destacando as potenciais deficiências desse teste há anos. Um artigo de 2021, de membros da Sociedade Europeia de Genética Humana, afirmou: “Nenhuma pesquisa clínica foi realizada para avaliar sua eficácia diagnóstica em embriões. Os pacientes precisam ser devidamente informados sobre as limitações desse uso”. E um artigo publicado em maio deste ano no Journal of Clinical Medicine corroborou essa preocupação e expressou reservas específicas sobre a triagem para transtornos psiquiátricos e características não relacionadas a doenças: “Infelizmente, nenhuma pesquisa clínica foi publicada até o momento avaliando de forma abrangente a eficácia dessa estratégia [de teste preditivo]. A conscientização do paciente sobre as limitações desse procedimento é fundamental”.

Além disso, as premissas subjacentes a alguns desses trabalhos — de que a forma como uma pessoa se torna é produto não de privilégios ou circunstâncias, mas de fatores biológicos inatos — transformaram essas empresas em um foco de controvérsia política.

À medida que essa tecnologia de nicho começa a se popularizar, cientistas e especialistas em ética correm para enfrentar as implicações — para o nosso contrato social, para as gerações futuras e para a nossa própria compreensão do que significa ser humano.

O teste genético pré-implantacional (PGT), embora ainda relativamente raro, não é uma novidade. Desde a década de 1990, os pais que se submetem à fertilização in vitro têm acesso a diversos testes genéticos antes de escolher qual embrião utilizar. Um tipo conhecido como PGT-M pode detectar doenças monogênicas como fibrose cística, anemia falciforme e doença de Huntington. O PGT-A pode determinar o sexo do embrião e identificar anomalias cromossômicas que podem levar a condições como a síndrome de Down ou reduzir as chances de implantação bem-sucedida do embrião no útero. O PGT-SR ajuda os pais a evitar embriões com problemas como segmentos cromossômicos duplicados ou ausentes.

Todos esses testes identificam problemas genéticos claros e relativamente fáceis de detectar, mas a maior parte do manual de instruções genéticas contido em um embrião está escrita em um código muito mais complexo. Nos últimos anos, surgiu um mercado emergente em torno de uma nova versão mais avançada do processo de teste, chamada PGT-P: teste genético pré-implantacional para distúrbios poligênicos (e, segundo alguns, características) — ou seja, resultados determinados pela interação complexa de centenas ou milhares de variantes genéticas.

Em 2020, nasceu o primeiro bebê selecionado por meio do PGT-P. Embora o número exato seja desconhecido, estima-se que centenas de crianças já tenham nascido com o auxílio dessa tecnologia. Com a comercialização da tecnologia, é provável que esse número aumente.

A seleção de embriões se assemelha menos a uma oficina de “construa um bebê” e mais a uma loja onde os pais podem escolher seus futuros filhos entre vários modelos disponíveis — cada um com fichas técnicas indicando suas predisposições.

Algumas startups, munidas de dezenas de milhões de dólares em investimentos do Vale do Silício, desenvolveram algoritmos proprietários para calcular essas estatísticas — analisando um grande número de variantes genéticas e produzindo uma “pontuação de risco poligênico” que mostra a probabilidade de um embrião desenvolver uma variedade de características complexas.

Nos últimos cinco anos, aproximadamente, duas empresas — Genomic Prediction e Orchid — dominaram esse pequeno mercado, concentrando seus esforços na prevenção de doenças. Mas, mais recentemente, surgiram duas novas concorrentes de grande impacto: Nucleus Genomics e Herasight, que rejeitaram a abordagem mais cautelosa de suas antecessoras e se aventuraram no controverso território dos testes genéticos para inteligência. (A Nucleus também oferece testes para uma ampla variedade de outras características comportamentais e relacionadas à aparência.)

As limitações práticas das pontuações de risco poligênico são substanciais. Para começar, ainda há muito que não entendemos sobre as complexas interações genéticas que impulsionam características e distúrbios poligênicos. Além disso, os conjuntos de dados de biobancos nos quais se baseiam tendem a representar, em sua grande maioria, indivíduos com ascendência da Europa Ocidental, o que dificulta a geração de pontuações confiáveis ​​para pacientes de outras origens. Essas pontuações também carecem do contexto completo do ambiente, estilo de vida e da miríade de outros fatores que podem influenciar as características de uma pessoa. E embora as pontuações de risco poligênico possam ser eficazes na detecção de grandes tendências em nível populacional, sua capacidade preditiva cai significativamente quando o tamanho da amostra é tão pequeno quanto um único lote de embriões que compartilham grande parte do mesmo DNA.

A comunidade médica — incluindo organizações como a Sociedade Americana de Genética Humana , o Colégio Americano de Genética Médica e Genômica e a Sociedade Americana de Medicina Reprodutiva — geralmente se mostra cautelosa quanto ao uso de escores de risco poligênico para a seleção de embriões. “A prática avançou rápido demais com poucas evidências”, escreveu o Colégio Americano de Genética Médica e Genômica em um comunicado oficial em 2024.

Mas, além das questões sobre se as evidências comprovam a eficácia da tecnologia, os críticos das empresas que a comercializam as acusam de reviver uma ideologia perturbadora: a eugenia, ou a crença de que a reprodução seletiva pode ser usada para aprimorar a humanidade. De fato, algumas das vozes que demonstraram maior convicção de que esses métodos podem prever com sucesso características não patológicas fizeram afirmações surpreendentes sobre hierarquias genéticas naturais e diferenças raciais inatas.

No entanto, todos concordam que essa nova onda de tecnologia está ajudando a reacender um debate secular sobre natureza versus criação.

O termo “eugenia” foi cunhado em 1883 por um antropólogo e estatístico britânico chamado Sir Francis Galton, inspirado em parte pela obra de seu primo Charles Darwin. Ele o derivou de uma palavra grega que significa “de boa linhagem, hereditariamente dotado de qualidades nobres”.

Alguns dos capítulos mais sombrios da história moderna foram construídos sobre o legado de Galton, do Holocausto às leis de esterilização forçada que afetaram certos grupos nos Estados Unidos até o século XX. A ciência moderna demonstrou os muitos problemas lógicos e empíricos da metodologia de Galton. (Para começar, ele considerava conceitos vagos como “eminência” — bem como infecções como sífilis e tuberculose — como fenótipos hereditários, ou seja, características resultantes da interação entre genes e ambiente.)

Ainda hoje, a influência de Galton persiste no campo da genética comportamental, que investiga as raízes genéticas das características psicológicas. A partir da década de 1960, pesquisadores nos EUA começaram a revisitar um dos métodos prediletos de Galton: os estudos com gêmeos. Muitos desses estudos, que analisavam pares de gêmeos idênticos e fraternos para tentar determinar quais características eram hereditárias e quais resultavam da socialização, foram financiados pelo governo americano. O mais conhecido deles, o Estudo de Gêmeos de Minnesota, também recebeu verbas do Pioneer Fund, uma organização sem fins lucrativos, hoje extinta, que promovia a eugenia e o “aprimoramento racial” desde sua fundação em 1937.

O debate entre natureza e criação atingiu um ponto de inflexão importante em 2003, quando o Projeto Genoma Humano foi declarado concluído. Após 13 anos e a um custo de quase 3 bilhões de dólares, um consórcio internacional de milhares de pesquisadores sequenciou 92% do genoma humano pela primeira vez.

Hoje, o custo do sequenciamento de um genoma pode ser tão baixo quanto US$ 600, e uma empresa afirma que em breve cairá ainda mais. Essa redução drástica possibilitou a construção de enormes bancos de dados de DNA, como o UK Biobank e o All of Us dos Institutos Nacionais de Saúde (NIH), cada um contendo dados genéticos de mais de meio milhão de voluntários. Recursos como esses permitiram que pesquisadores realizassem estudos de associação genômica ampla (GWAS, na sigla em inglês), que identificam correlações entre variantes genéticas e características humanas por meio da análise de polimorfismos de nucleotídeo único (SNPs) — a forma mais comum de variação genética entre indivíduos. Os resultados desses estudos servem como ponto de referência para o desenvolvimento de escores de risco poligênico.

A maioria dos GWASs (estudos de associação genômica ampla) tem se concentrado na prevenção de doenças e na medicina personalizada. Mas, em 2011, um grupo de pesquisadores médicos, cientistas sociais e economistas lançou o Consórcio de Associação Genética em Ciências Sociais (SSGAC) para investigar a base genética de desfechos sociais e comportamentais complexos. Um dos fenótipos em que se concentraram foi o nível de escolaridade alcançado pelas pessoas.

“Foi um fenótipo um tanto conveniente”, explica Patrick Turley, economista e membro do comitê diretivo do SSGAC, visto que o nível de escolaridade é rotineiramente registrado em pesquisas quando dados genéticos são coletados. Ainda assim, “ficou claro que os genes desempenham algum papel”, afirma. “E tentar entender qual é esse papel, eu acho, é realmente interessante.” Ele acrescenta que os cientistas sociais também podem usar dados genéticos para tentar “entender melhor o papel que se deve a vias não genéticas”.

Muitos na esquerda geralmente estão dispostos a admitir que diversas características, desde o vício até a obesidade, são influenciadas geneticamente. No entanto, a capacidade cognitiva hereditária parece estar “fora de questão para nós, sendo considerada uma fonte de diferença”.

O trabalho imediatamente provocou sentimentos de desconforto — sobretudo entre os próprios membros do consórcio, que temiam poder, involuntariamente, reforçar o racismo, a desigualdade e o determinismo genético.

Isso também gerou bastante desconforto em alguns círculos políticos, afirma Kathryn Paige Harden, psicóloga e geneticista comportamental da Universidade do Texas em Austin, que diz ter passado grande parte de sua carreira defendendo o argumento impopular de que os genes são preditores relevantes de resultados sociais para seus colegas liberais.

Harden acredita que um ponto forte da esquerda é a capacidade de reconhecer “que os corpos são diferentes uns dos outros de uma forma que importa”. Muitos estão dispostos a admitir que diversas características, da dependência química à obesidade, são influenciadas geneticamente. No entanto, ela afirma que a capacidade cognitiva hereditária parece ser “algo inaceitável para nós, como uma fonte de diferença que impacta nossas vidas”.

Harden acredita que os genes são importantes para a nossa compreensão de características como a inteligência e que isso deve ajudar a moldar políticas públicas progressistas. Ela dá o exemplo de um departamento de educação que busca intervenções políticas para melhorar as notas de matemática em um determinado distrito escolar. Se uma pontuação de risco poligênico estiver “tão fortemente correlacionada com as notas escolares” quanto a renda familiar, diz ela sobre os alunos desse distrito, então “não coletar deliberadamente essa informação [genética], ou não saber sobre ela, torna a pesquisa mais difícil [e] as conclusões piores?”.

Para Harden, persistir nessa estratégia de evasão por medo de encorajar os eugenistas é um erro. Se “insistir que o QI é um mito e que os genes não têm nada a ver com ele fosse eficaz para neutralizar a eugenia”, diz ela, “já teria funcionado”.

Parte da razão pela qual essas ideias são tão tabu em muitos círculos é que o debate atual em torno do determinismo genético ainda está profundamente impregnado pelas ideias de Galton — e se tornou uma fixação particular entre a direita online.

Após Elon Musk assumir o controle do Twitter (agora X) em 2022 e afrouxar suas restrições ao discurso de ódio, uma enxurrada de contas começou a compartilhar publicações racistas , algumas especulando sobre as origens genéticas da desigualdade enquanto argumentavam contra a imigração e a integração racial. O próprio Musk frequentemente republica e interage com contas como Crémieux Recueil, pseudônimo do pesquisador independente Jordan Lasker, que escreveu sobre a “diferença de QI entre negros e brancos”, e i/o, uma conta anônima que certa vez elogiou Musk por “reconhecer dados sobre raça e crime”, dizendo que isso “fez mais para aumentar a conscientização sobre as desproporcionalidades observadas nesses dados do que qualquer outra coisa que eu me lembre”. (Em resposta às alegações de que sua pesquisa incentiva a eugenia, Lasker escreveu à MIT Technology Review : “O entendimento popular de eugenia se refere à coerção e à exclusão de pessoas consideradas ‘indesejáveis’ do grupo reprodutivo. Isso não tem nada a ver com isso, portanto, não se qualifica como eugenia segundo esse entendimento popular do termo.” Após a publicação, o i/o escreveu em um e-mail: “Só porque as diferenças de inteligência em nível individual são em grande parte hereditárias, não significa que as diferenças de grupo na inteligência medida… sejam devidas a diferenças genéticas entre os grupos”, mas que esta última questão não é “cientificamente comprovada” e é “uma área de pesquisa extremamente importante (e necessária) que deve ser financiada em vez de se tornar tabu”. Ele acrescentou: “Nunca argumentei contra a integração racial, o casamento inter-racial ou qualquer coisa do tipo.” X e Musk não responderam aos pedidos de comentários.)

Harden, no entanto, alerta para o perigo de desconsiderar o trabalho de toda uma área de pesquisa por causa de alguns neorreacionários barulhentos. “Acho que pode existir essa ideia de que a tecnologia está dando origem ao racismo terrível”, diz ela. A verdade, acredita ela, é que “o racismo já existia antes de qualquer tecnologia”.

Em 2019, uma empresa chamada Genomic Prediction começou a oferecer o primeiro teste poligênico pré-implantacional comercialmente disponível. Com o LifeView Embryo Health Score, os futuros pais podem avaliar a predisposição de seus embriões a problemas de saúde geneticamente complexos, como câncer, diabetes e doenças cardíacas. O preço do serviço começa em US$ 3.500. A Genomic Prediction utiliza uma técnica chamada microarray de SNPs, que identifica locais específicos no genoma onde ocorrem variantes comuns. Os resultados são então comparados com GWASs (estudos de associação genômica ampla) que mostram correlações entre variantes genéticas e determinadas doenças.

Quatro anos depois, uma empresa chamada Orchid começou a oferecer um teste concorrente. O Relatório de Genoma Completo do Embrião da Orchid se destacou por alegar sequenciar mais de 99% do genoma de um embrião, permitindo detectar novas mutações e, segundo a empresa, diagnosticar doenças raras com mais precisão. Por US$ 2.500 por embrião, os pais podem acessar pontuações de risco poligênico para 12 distúrbios, incluindo esquizofrenia, câncer de mama e hipotireoidismo.

A Orchid foi fundada por uma mulher chamada Noor Siddiqui. Antes de obter seus diplomas de graduação e pós-graduação em Stanford, ela recebeu a bolsa Thiel — uma bolsa de US$ 200.000 concedida a jovens empreendedores dispostos a trabalhar em suas ideias em vez de frequentar a faculdade — quando ainda era adolescente, em 2012. Isso a preparou para atrair a atenção de membros da elite tecnológica, tanto como clientes quanto como investidores. Sua empresa já arrecadou US$ 16,5 milhões de investidores como Vitalik Buterin, fundador do Ethereum, Balaji Srinivasan, ex-CTO da Coinbase, e Armstrong, CEO da Coinbase.

Em agosto, Siddiqui fez a sugestão controversa de que os pais que optam por não fazer testes genéticos podem ser considerados irresponsáveis. “Sejam honestos: vocês estão bem com o potencial sofrimento do seu filho pelo resto da vida só para se sentirem moralmente superiores…”, escreveu ela no X.

Os americanos têm opiniões diversas sobre a tecnologia emergente. Em 2024, um grupo de bioeticistas entrevistou 1.627 adultos nos EUA para determinar suas atitudes em relação a uma variedade de critérios de testes poligênicos. Uma grande maioria aprovou os testes para condições de saúde física como câncer, doenças cardíacas e diabetes. A triagem para transtornos de saúde mental, como depressão, TOC e TDAH, obteve uma resposta mais mista, mas ainda positiva. Características relacionadas à aparência, como cor da pele, calvície e altura, receberam menos aprovação como algo para o qual se deva realizar testes.

A inteligência foi uma das características mais controversas — o que não surpreende, dada a forma como foi instrumentalizada ao longo da história e a falta de consenso cultural sobre como deveria ser definida. (Em muitos países, os testes de inteligência em embriões são fortemente regulamentados; no Reino Unido, a prática é totalmente proibida.) Na pesquisa de 2024, 36,9% dos entrevistados aprovaram o teste genético pré-implantacional para inteligência, 40,5% desaprovaram e 22,6% disseram estar indecisos.

Apesar da divergência, a inteligência tem sido uma das características mais discutidas como alvo de testes. Desde o início, a Genomic Prediction afirma ter recebido consultas “do mundo todo” sobre testes de inteligência, segundo Diego Marin, chefe de desenvolvimento de negócios globais e assuntos científicos da empresa.

Em determinado momento, a empresa ofereceu um preditor para o que chamava de “deficiência intelectual”. Após algumas críticas questionando tanto a capacidade preditiva quanto a ética dessas pontuações, a empresa descontinuou o recurso. “Nossa missão e visão para esta empresa não é melhorar [um bebê], mas reduzir o risco de doenças”, disse Marin. “Quando se trata de características como QI, cor da pele, altura ou algo que seja puramente estético e não tenha nenhuma relação com uma doença, simplesmente não investimos nisso.”

A Orchid, por outro lado, realiza testes para marcadores genéticos associados à deficiência intelectual e ao atraso no desenvolvimento. Mas isso pode não ser tudo. De acordo com um funcionário da empresa, que falou sob condição de anonimato, testes de inteligência também são oferecidos a clientes de alto poder aquisitivo. Segundo esse funcionário, outra fonte próxima à empresa e reportagem do Washington Post, Musk utilizou os serviços da Orchid na concepção de pelo menos um dos filhos que tem com a executiva de tecnologia Shivon Zilis. (A Orchid, Musk e Zilis não responderam aos pedidos de comentários.)

Conheci Kian Sadeghi, o fundador de 25 anos da Nucleus Genomics, com sede em Nova York, em uma tarde escaldante de julho em seu escritório no SoHo. Magro e enérgico, Sadeghi falava em ritmo acelerado, parando apenas ocasionalmente para perguntar se eu estava acompanhando.

Sadeghi modificou seu primeiro organismo — uma amostra de levedura de cerveja — aos 16 anos. Em 2016, enquanto cursava o ensino médio, fez um curso sobre CRISPR-Cas9 em um laboratório no Brooklyn e se apaixonou pela “bela profundidade” da genética. Poucos anos depois, abandonou a faculdade para construir “um 23andMe melhor”.

Sua empresa tem como alvo o que você poderia chamar de camada de aplicação do PGT-P, aceitando dados de clínicas de fertilização in vitro — e até mesmo dos concorrentes mencionados nesta matéria — e executando sua própria análise computacional.

“Ao contrário de muitas outras empresas de testes, priorizamos o software e o consumidor”, disse Sadeghi. “Não basta atribuir uma pontuação poligênica a alguém. O que isso significa? Como compará-las? Há muitos problemas de design realmente complexos envolvidos.”

Assim como seus concorrentes, o Nucleus calcula seus escores de risco poligênico comparando os dados genéticos de um indivíduo com variantes associadas a características identificadas em grandes estudos de associação genômica ampla (GWAS), fornecendo previsões estatisticamente embasadas.

O Nucleus fornece duas visualizações dos resultados de um paciente: um escore Z, plotado de -4 a 4, que explica o risco de uma determinada característica em relação a uma população com ancestralidade genética semelhante (por exemplo, se o Embrião nº 3 tiver um escore Z de 2,1 para câncer de mama, seu risco é maior que a média), e um escore de risco absoluto, que inclui fatores clínicos relevantes (o Embrião nº 3 tem um risco real mínimo de câncer de mama, visto que é do sexo masculino).

A verdadeira diferença entre a Nucleus e seus concorrentes reside na abrangência do que ela afirma oferecer aos clientes. Em seu site moderno, os futuros pais podem filtrar entre mais de 2.000 possíveis doenças, bem como características que vão da cor dos olhos ao QI. O acesso à plataforma Nucleus Embryo custa US$ 8.999, enquanto a nova oferta IVF+ da empresa — que inclui um ciclo de fertilização in vitro (FIV) com uma clínica parceira, triagem de até 20 embriões e serviços de acompanhamento personalizado durante todo o processo — tem preço inicial de US$ 24.999.

“Talvez você queira que seu bebê tenha olhos azuis em vez de olhos verdes”, disse Kian Sadeghi, fundador da Nucleus, em um evento em junho. “Isso fica a critério dos pais.”

Suas promessas são notavelmente ousadas. A empresa afirma ser capaz de prever a propensão a ansiedade, TDAH, insônia e outros problemas mentais. Diz que você pode ver quais de seus embriões têm maior probabilidade de desenvolver dependência de álcool, quais têm maior probabilidade de serem canhotos e quais podem acabar com acne grave ou alergias sazonais. (No entanto, no momento da redação deste texto, a plataforma de triagem de embriões forneceu a seguinte ressalva: “O DNA não é o destino. A genética pode ser uma ferramenta útil para escolher um embrião, mas não é uma garantia. A pesquisa genética ainda está em seus primórdios e ainda há muito que não sabemos sobre como o DNA molda quem somos.”)

Para quem está acostumado com aplicativos de monitoramento do sono, suplementos de biohacking e monitoramento de glicose, aproveitar as opções oferecidas pela Nucleus pode parecer óbvio. Já para quem aprecia um pouco de acaso na vida, esse nível de controle percebido pode ser, no mínimo, desconcertante.

Sadeghi gosta de enquadrar seus argumentos em termos de escolha pessoal. “Talvez você queira que seu bebê tenha olhos azuis em vez de olhos verdes”, disse ele a um pequeno público no evento de lançamento da Nucleus Embryo em junho. “Isso é uma decisão que cabe aos pais.”

No dia do lançamento oficial, Sadeghi passou horas debatendo alegremente com usuários do X que o acusavam de praticar eugenia. Ele rejeita o termo, preferindo “otimização genética” — embora pareça não ter se incomodado muito com o marketing viral gratuito. “Esta semana, tivemos cinco milhões de impressões no Twitter”, disse ele a uma plateia no evento de lançamento, sob alguns aplausos. (Em um e-mail para a MIT Technology Review, Sadeghi escreveu: “A história da eugenia é uma história de coerção e discriminação por estados e instituições; o que o Nucleus faz é o oposto — previsão genética que capacita os indivíduos a tomar decisões informadas.”)

A Nucleus arrecadou mais de US$ 36 milhões de investidores como Srinivasan, a empresa de capital de risco de Alexis Ohanian, Seven Seven Six, e o Founders Fund de Thiel. (Assim como Siddiqui, Sadeghi recebeu uma bolsa de estudos de Thiel quando abandonou a faculdade; um representante de Thiel não respondeu a um pedido de comentário para esta matéria.) Sadeghi chegou a contratar Nathan Treff, cofundador da Genomic Prediction, que agora é o diretor clínico da Nucleus.

O verdadeiro objetivo de Sadeghi é construir uma plataforma completa para todas as aplicações possíveis da tecnologia de sequenciamento genético, da genealogia à medicina de precisão e à engenharia genética. Ele cita algumas empresas que fornecem esses serviços, com um valor de mercado combinado na casa dos bilhões. “A Nucleus está reunindo todas essas cinco empresas em uma só”, afirma. “Não somos uma empresa de testes de fertilização in vitro. Somos uma plataforma genética completa.”

Nesta primavera, abri caminho a cotoveladas até um bar de hotel lotado no bairro Flatiron, onde mais de cem pessoas se reuniram para ouvir uma palestra intitulada “Como criar SUPERBEBÊS”. O evento fazia parte da Semana de Tecnologia Avançada de Nova York, então eu esperava encontrar alguns profissionais e investidores da área de biotecnologia. Em vez disso, fiquei surpresa ao me deparar com um grupo diversificado e curioso de criativos, engenheiros de software, estudantes e futuros pais — muitos dos quais não tinham nenhum conhecimento prévio sobre o assunto.

O palestrante daquela noite foi Jonathan Anomaly, um filósofo político de voz suave, cujo tom didático denuncia seus anos como professor universitário.

Parte do trabalho acadêmico de Anomaly tem se concentrado no desenvolvimento de teorias do comportamento racional. Na Universidade Duke e na Universidade da Pensilvânia, ele ministrou cursos introdutórios sobre teoria dos jogos, ética e problemas de ação coletiva, bem como bioética, aprofundando-se em questões complexas sobre aborto, vacinas e eutanásia. Mas talvez nenhum tópico o tenha interessado tanto quanto o campo emergente do aprimoramento genético.

Em 2018, em um periódico de bioética, Anomaly publicou um artigo com o título intencionalmente provocativo “Defendendo a Eugenia”. Ele procurou distinguir o que chamou de “eugenia positiva” — métodos não coercitivos que visam aumentar características que “promovem o bem-estar individual e social” — da chamada “eugenia negativa” que conhecemos dos nossos livros de história.

Anomaly gosta de argumentar que a seleção de embriões não é tão diferente de práticas que já consideramos normais. Não acredita que dois primos devam ter filhos? Talvez você seja um eugenista, ele afirma. Seu amigo que escolheu um graduado de Harvard de 1,88m em uma pasta com potenciais doadores de esperma? A lógica é a mesma.

Sua contratação pela Universidade da Pensilvânia em 2019 causou indignação entre alguns estudantes, que o acusaram de “essencialismo racial”. Em 2020, Anomaly deixou a vida acadêmica, lamentando que “as universidades americanas tivessem se tornado uma prisão intelectual”.

Alguns anos depois, a Anomaly juntou-se a uma empresa PGT-P nascente chamada Herasight, que prometia realizar testes de QI.

No final de julho, a empresa saiu oficialmente do modo stealth. Um representante me disse que a maior parte do dinheiro arrecadado até agora vem de investidores-anjo, incluindo Srinivasan, que também investiu na Orchid e na Nucleus. De acordo com o anúncio de lançamento na X, a Herasight analisou “centenas de embriões” para clientes particulares e está começando a oferecer seu primeiro produto para o consumidor final, uma avaliação poligênica que afirma detectar a probabilidade de um embrião desenvolver 17 doenças.

Seus materiais de marketing alardeiam capacidades preditivas 122% melhores que as da Orchid e 193% melhores que as da Genomic Prediction para esse conjunto de doenças. (“A Herasight está comparando seu preditor atual com modelos que publicamos há mais de cinco anos”, respondeu a Genomic Prediction em um comunicado. “Nossa equipe está confiante de que nossos preditores são de classe mundial e não são superados em qualidade por nenhum outro laboratório.”)

A empresa não incluiu comparações com a Nucleus, apontando para a “ausência de validações de desempenho publicadas” por essa empresa e alegando que se tratava de um caso em que “o marketing supera a ciência”. (“A Nucleus é conhecida por sua ciência e marketing de classe mundial, e entendemos por que isso é frustrante para nossos concorrentes”, respondeu um representante da empresa em um comentário.)

A Herasight também enfatizou os novos avanços na “validação intrafamiliar” (garantindo que as pontuações não estejam apenas captando fatores ambientais compartilhados, comparando o desempenho entre pessoas não relacionadas com o desempenho entre irmãos) e na “precisão entre ancestralidades diferentes” (aprimorando a precisão das pontuações para pessoas fora dos grupos de ancestralidade europeia, onde se concentra a maior parte dos dados do biobanco). O representante explicou que os preços variam de acordo com o cliente e o número de embriões testados, mas podem chegar a US$ 50.000.

Quando se trata de características que Jonathan Anomaly acredita serem geneticamente codificadas, a inteligência é apenas a ponta do iceberg. Ele também já falou sobre a hereditariedade da empatia, da violência, da religiosidade e das inclinações políticas.

O teste Herasight avalia apenas uma característica não relacionada a doenças: a inteligência. Para um casal que produz 10 embriões, afirma ser capaz de detectar uma variação de QI de cerca de 15 pontos, do embrião com a pontuação mais baixa ao de maior QI. O representante da empresa afirma que a empresa planeja publicar um relatório técnico detalhado sobre seu preditor de QI futuramente.

No dia do lançamento da Herasight, Musk respondeu ao anúncio da empresa: “Legal”. Enquanto isso, um pesquisador dinamarquês chamado Emil Kirkegaard, cuja pesquisa se concentra principalmente nas diferenças de QI entre grupos raciais, divulgou a empresa para seus quase 45.000 seguidores no X (bem como em um blog no Substack), escrevendo: “A seleção adequada de embriões acaba de chegar”. Kirkegaard, na verdade, apoia o trabalho da Anomaly há anos; ele já publicou sobre ela no X e recomendou seu livro de 2020, ” Creating Future People”, que ele chamou de “um livro de defesa da eugenia biotecnológica”, acrescentando: “Naturalmente, concordo com isso!”.

Quando se trata de características que Anomaly acredita serem geneticamente codificadas, a inteligência — que ele afirmou em sua palestra ser cerca de 75% hereditária — é apenas a ponta do iceberg. Ele também falou sobre a hereditariedade da empatia, do controle dos impulsos, da violência, da passividade, da religiosidade e das inclinações políticas.

Anomaly reconhece que existem limitações quanto aos tipos de previsões relativas que podem ser feitas a partir de um pequeno lote de embriões. Mas ele acredita que estamos apenas no início do que ele gosta de chamar de “revolução reprodutiva”. Em sua palestra, ele mencionou uma tecnologia atualmente em desenvolvimento em algumas startups: a gametogênese in vitro (GIV). A GIV visa criar espermatozoides ou óvulos em laboratório usando células-tronco adultas, geneticamente reprogramadas a partir de células encontradas em uma amostra de pele ou sangue. Em teoria, esse processo poderia permitir que um casal produzisse rapidamente um número praticamente ilimitado de embriões para analisar as características desejadas. Anomaly previu que essa tecnologia poderia estar pronta para uso em humanos dentro de oito anos.

“Duvido que a FDA permita isso imediatamente. É para isso que existem lugares como Próspera”, disse ele, referindo-se à chamada “cidade das startups” em Honduras, onde cientistas e empreendedores podem realizar experimentos médicos livres dos tipos de supervisão regulatória que encontrariam nos EUA.

“Você pode ter uma intuição moral de que isso está errado”, disse Anomaly, “mas quando se descobre que as elites estão fazendo isso em segredo… o efeito dominó vai acontecer muito, muito rapidamente.” A vindoura “corrida armamentista evolutiva”, afirmou ele, “mudará o panorama moral”.

Ele acrescentou que alguns desses membros da elite são seus próprios clientes: “Eu já poderia citar nomes, mas não vou fazê-lo.”

Após a palestra de Anomaly, conversei com um jovem fotógrafo que me disse que esperava fazer um mestrado em teologia. Ele veio ao evento, contou-me, para refletir sobre as implicações éticas de brincar de Deus. “A tecnologia está nos conduzindo a um momento de transição entre o Antigo e o Novo Testamento, em que precisamos decidir quais partes da religião ainda nos servem”, disse ele, com seriedade.

As críticas aos testes poligênicos tendem a se dividir em duas vertentes: ceticismo quanto à eficácia dos testes e preocupações com a ética envolvida. “Por um lado”, diz Turley, do Consórcio de Associações de Genética em Ciências Sociais, “há quem argumente: ‘Isso não vai funcionar de qualquer forma, e o problema é que estamos enganando os pais’. Por outro lado, há quem diga: ‘Ah, isso vai funcionar tão bem que vai levar a enormes desigualdades na sociedade’. É até engraçado ver isso. Às vezes, esses argumentos são feitos pelas mesmas pessoas.”

Uma dessas pessoas é Sasha Gusev, que dirige um laboratório de genética quantitativa no Instituto de Câncer Dana-Farber. Crítico ferrenho do PGT-P para seleção de embriões, ele também participa frequentemente de debates online com perfis de extrema-direita que promovem a ciência racial no X.

Gusev é um dos muitos profissionais em sua área que acreditam que, devido a inúmeros fatores socioeconômicos que podem gerar confusão — por exemplo, nutrição infantil, geografia, redes pessoais e estilos parentais — não faz muito sentido tentar rastrear resultados como o nível de escolaridade até a genética, principalmente não como forma de provar que existe uma base genética para o QI.

Ele acrescenta: “Acho que existe um risco real em caminhar para uma sociedade onde a genética e as ‘dotações genéticas’ são vistas como os fatores determinantes do comportamento das pessoas e como um limite para seus resultados e suas capacidades.”

Gusev acredita que essa tecnologia tem um potencial real em ambientes clínicos, principalmente em populações adultas específicas. Para adultos identificados com altos escores de risco poligênico para câncer e doenças cardiovasculares, ele argumenta que uma combinação de triagem precoce e intervenção pode salvar vidas. No entanto, quando se trata dos testes pré-implante atualmente disponíveis no mercado, ele considera que existem limitações significativas — e poucas medidas regulatórias ou métodos de validação a longo prazo para verificar as promessas feitas pelas empresas. Ele teme que dar muita atenção a esses serviços possa ser contraproducente.

“Essas aplicações imprudentes, com promessas exageradas e, muitas vezes, puramente manipuladoras, na seleção de embriões representam um risco para a credibilidade e a utilidade dessas ferramentas clínicas”, afirma ele.

Muitos pacientes de fertilização in vitro também tiveram reações fortes à publicidade em torno do PGT-P. Quando o New York Times publicou um artigo de opinião sobre a Orchid na primavera, pais furiosos recorreram ao Reddit para expressar sua indignação. Um usuário postou: “Para quem não sabe por que outros tipos de testes são necessários, isso só faz parecer que as pessoas que fazem fertilização in vitro querem criar bebês ‘perfeitos’, quando nós só queremos bebês saudáveis.”

Ainda assim, outros defenderam a necessidade de uma conversa. “Quando tecnologias como essa poderiam mudar a missão de ajudar pessoas inférteis a terem bebês saudáveis ​​para a eugenia?”, questionou um usuário do Reddit. “É uma linha tênue e uma discussão importante a ser feita.”

Alguns defensores do PGT-P, como Kirkegaard e Anomaly, argumentam que as decisões políticas devem levar em conta, de forma mais explícita, as diferenças genéticas. Em uma série de posts em seu blog após a eleição presidencial de 2024, sob o título “Tornar a ciência grandiosa novamente”, Kirkegaard defendeu o fim das leis de ação afirmativa, a legalização da discriminação racial na contratação e a remoção de restrições a conjuntos de dados como o biobanco All of Us do NIH, que impedem pesquisadores como ele de usar os dados para pesquisas sobre raça. Anomaly criticou as políticas de bem-estar social por manipularem a balança para “punir pessoas com QI elevado”.

De fato, a noção de determinismo genético ganhou certa força entre os apoiadores do presidente Donald Trump.

Em outubro de 2024, o próprio Trump fez uma parada de campanha no programa de rádio conservador The Hugh Hewitt Show. Ele começou uma resposta confusa sobre imigração e estatísticas de homicídios. “Um assassino, eu acredito nisso, está nos genes deles. E nós temos muitos genes ruins em nosso país agora”, disse ele ao apresentador.

Gusev acredita que, embora a seleção de embriões não tenha grande impacto nos resultados individuais, a estrutura intelectual defendida por muitos proponentes do PGT-P pode ter consequências sociais graves.

“Se você considerar as diferenças que observamos na sociedade apenas como culturais, então você ajuda as pessoas. Você lhes proporciona melhor escolaridade, melhor nutrição e educação, e elas conseguem se destacar”, diz ele. “Se você considerar essas diferenças como fortemente inatas, pode se iludir pensando que nada pode ser feito e que as pessoas simplesmente nascem como são.”

Por enquanto, não há planos para estudos longitudinais que acompanhem os resultados reais dos seres humanos que essas empresas ajudaram a trazer ao mundo. Harden, o geneticista comportamental da Universidade do Texas em Austin, suspeita que, daqui a 25 anos, os adultos que um dia foram embriões selecionados com base em pontuações de risco poligênico “acabarão com a mesma pergunta que todos nós temos”. Eles olharão para suas vidas e se perguntarão: “O que teria que ter mudado para que fosse diferente?”



Notícias, Segurança

O que vem por aí para o AlphaFold: Uma conversa com um laureado com o Prêmio Nobel do Google DeepMind



Em 2017, recém-formado em seu doutorado em química teórica, John Jumper ouviu rumores de que o Google DeepMind havia abandonado o desenvolvimento de IA para jogos com habilidades sobre-humanas e estava iniciando um projeto secreto para prever as estruturas de proteínas. Ele se candidatou a uma vaga.

Apenas três anos depois, Jumper comemorou uma vitória impressionante que poucos previram. Junto com o CEO Demis Hassabis, ele co-liderou o desenvolvimento de um sistema de IA chamado AlphaFold 2, capaz de prever as estruturas de proteínas com precisão de até um átomo, igualando a acurácia de técnicas meticulosas usadas em laboratório e fazendo isso muitas vezes mais rápido — apresentando resultados em horas em vez de meses.

O AlphaFold 2 resolveu um grande desafio de 50 anos na biologia. “Essa é a razão pela qual fundei a DeepMind”, Hassabis me disse alguns anos atrás. “Na verdade, é por isso que dediquei toda a minha carreira à IA.” Em 2024, Jumper e Hassabis dividiram o Prêmio Nobel de Química .

Há cinco anos, nesta mesma semana, a estreia do AlphaFold 2 surpreendeu os cientistas. Agora que a euforia passou, qual foi o verdadeiro impacto do AlphaFold? Como os cientistas o estão utilizando? E o que vem por aí? Conversei com Jumper (e com alguns outros cientistas) para descobrir.

“Foram cinco anos extraordinários”, diz Jumper, rindo: “É difícil lembrar de uma época em que eu não conhecia um número tão grande de jornalistas.”

O AlphaFold 2 foi seguido pelo AlphaFold Multimer, capaz de prever estruturas contendo mais de uma proteína, e depois pelo AlphaFold 3 , a versão mais rápida até então. O Google DeepMind também disponibilizou o AlphaFold para o UniProt , um vasto banco de dados de proteínas usado e atualizado por milhões de pesquisadores em todo o mundo. Ele já previu as estruturas de cerca de 200 milhões de proteínas , quase todas as conhecidas pela ciência.

Apesar do sucesso, Jumper mantém-se modesto quanto às conquistas do AlphaFold. “Isso não significa que tenhamos certeza de tudo o que está lá dentro”, afirma. “É um banco de dados de previsões, e isso vem com todas as ressalvas inerentes a previsões.”

Um problema difícil
As proteínas são as máquinas biológicas que fazem os seres vivos funcionarem. Elas formam músculos, chifres e penas; transportam oxigênio pelo corpo e transmitem mensagens entre as células; ativam neurônios, digerem alimentos, fortalecem o sistema imunológico e muito mais. Mas entender exatamente o que uma proteína faz (e qual o seu papel em diversas doenças ou tratamentos) envolve descobrir sua estrutura — e isso é difícil.

As proteínas são formadas por cadeias de aminoácidos que, por forças químicas, se entrelaçam em nós complexos. Uma cadeia não entrelaçada oferece poucas pistas sobre a estrutura que irá formar. Em teoria, a maioria das proteínas poderia assumir um número astronômico de formas possíveis. O desafio é prever qual delas está correta.

Jumper e sua equipe construíram o AlphaFold 2 usando um tipo de rede neural chamada Transformer, a mesma tecnologia que sustenta grandes modelos de linguagem. Os Transformers são muito bons em prestar atenção a partes específicas de um quebra-cabeça maior.

Mas Jumper atribui grande parte do sucesso à criação de um modelo protótipo que pudesse ser testado rapidamente. “Conseguimos um sistema que dava respostas erradas com uma velocidade incrível”, diz ele. “Isso facilitou muito o início da experimentação com as ideias que testamos.”

Eles carregaram a rede neural com o máximo de informações possível sobre estruturas de proteínas, como por exemplo, como proteínas de certas espécies desenvolveram formas semelhantes. E funcionou ainda melhor do que esperavam. “Tínhamos certeza de que tínhamos feito uma descoberta revolucionária”, diz Jumper. “Tínhamos certeza de que se tratava de um avanço incrível em termos de ideias.”

O que ele não previu foi que os pesquisadores baixariam seu software e começariam a usá-lo imediatamente para tantas coisas diferentes. Normalmente, é o que tem o verdadeiro impacto algumas iterações depois, quando os problemas iniciais já foram resolvidos, diz ele: “Fiquei surpreso com a responsabilidade com que os cientistas o usaram, em termos de interpretação e aplicação prática, confiando nele na medida certa, na minha opinião, nem demais nem de menos.”

Algum projeto em particular se destaca?

Ciência das abelhas
Jumper menciona um grupo de pesquisa que usa AlphaFold para estudar a resistência a doenças em abelhas. “Eles queriam entender essa proteína específica enquanto investigam problemas como o colapso das colônias”, diz ele. “Eu nunca teria dito: ‘Sabe, é claro que AlphaFold será usado na ciência das abelhas.'”

Ele também destaca alguns exemplos do que chama de usos não convencionais do AlphaFold — “no sentido de que não havia garantia de que funcionaria” — onde a capacidade de prever estruturas de proteínas abriu novas técnicas de pesquisa. “O primeiro exemplo, muito obviamente, são os avanços no design de proteínas”, diz ele. “David Baker e outros exploraram essa tecnologia ao máximo.”

Baker, um biólogo computacional da Universidade de Washington, foi um dos vencedores do Prêmio Nobel de Química do ano passado , juntamente com Jumper e Hassabis, por seu trabalho na criação de proteínas sintéticas para desempenhar tarefas específicas — como tratar doenças ou decompor plásticos — melhor do que as proteínas naturais.

Baker e seus colegas desenvolveram sua própria ferramenta baseada no AlphaFold, chamada RoseTTAFold. Mas eles também experimentaram o AlphaFold Multimer para prever quais de seus projetos de potenciais proteínas sintéticas funcionarão.

“Basicamente, se o AlphaFold concordar com a estrutura que você estava tentando projetar, você a cria; caso contrário, se o AlphaFold disser ‘Não sei’, você não a cria. Só isso já representou uma enorme melhoria.” Segundo Jumper, isso pode tornar o processo de projeto 10 vezes mais rápido.

Outro uso não convencional que Jumper destaca: transformar o AlphaFold em uma espécie de mecanismo de busca. Ele menciona dois grupos de pesquisa distintos que estavam tentando entender exatamente como os espermatozoides humanos se ligavam aos óvulos durante a fertilização. Eles conheciam uma das proteínas envolvidas, mas não a outra, diz ele: “Então, eles pegaram uma proteína conhecida do óvulo e analisaram todas as 2.000 proteínas da superfície dos espermatozoides humanos, e encontraram uma que o AlphaFold tinha certeza que se ligava ao óvulo”. Eles então conseguiram confirmar isso em laboratório.

“Essa ideia de que você pode usar o AlphaFold para fazer algo que não conseguia fazer antes — você nunca faria 2.000 estruturas procurando por uma única resposta”, diz ele. “Acho esse tipo de coisa realmente extraordinária.”

Cinco anos depois
Quando o AlphaFold 2 foi lançado, perguntei a alguns dos primeiros usuários o que eles achavam. As avaliações foram boas, mas a tecnologia era muito nova para saber ao certo qual seria seu impacto a longo prazo. Entrei em contato com uma dessas pessoas para saber sua opinião cinco anos depois.

Kliment Verba é um biólogo molecular que dirige um laboratório na Universidade da Califórnia, em São Francisco. “É uma tecnologia incrivelmente útil, sem dúvida”, diz ele. “Usamos todos os dias, o tempo todo.”

Mas está longe de ser perfeito. Muitos cientistas usam o AlphaFold para estudar patógenos ou desenvolver medicamentos. Isso envolve analisar as interações entre múltiplas proteínas ou entre proteínas e moléculas ainda menores no organismo. No entanto, sabe-se que o AlphaFold é menos preciso em fazer previsões sobre múltiplas proteínas ou suas interações ao longo do tempo.

Verba diz que ele e seus colegas usam o AlphaFold há tempo suficiente para se acostumarem com suas limitações. “Há muitos casos em que você recebe uma previsão e fica meio sem entender”, diz ele. “Isso é real ou não? Não é totalmente claro — é meio que uma situação ambígua.”

“É mais ou menos a mesma coisa que o ChatGPT”, acrescenta. “Sabe, ele vai te enganar com a mesma convicção com que daria uma resposta verdadeira.”

Ainda assim, a equipe de Verba usa o AlphaFold (tanto a versão 2 quanto a 3, pois cada uma tem suas vantagens, segundo ele) para executar versões virtuais de seus experimentos antes de realizá-los em laboratório. Com os resultados do AlphaFold, eles conseguem definir melhor o foco de um experimento — ou decidir que não vale a pena fazê-lo.

Ele afirma que isso pode realmente economizar tempo: “Não substituiu nenhum experimento, mas os aprimorou bastante.”

Nova onda
O AlphaFold foi projetado para ser usado para uma variedade de propósitos. Agora, diversas startups e laboratórios universitários estão se baseando em seu sucesso para desenvolver uma nova geração de ferramentas mais voltadas para a descoberta de medicamentos. Este ano, uma colaboração entre pesquisadores do MIT e a empresa de IA para medicamentos Recursion produziu um modelo chamado Boltz-2, que prevê não apenas a estrutura de proteínas, mas também a afinidade de moléculas de medicamentos em potencial por seus alvos .

No mês passado, a startup Genesis Molecular AI lançou outro modelo de previsão de estrutura chamado Pearl , que a empresa afirma ser mais preciso que o AlphaFold 3 para determinadas consultas importantes para o desenvolvimento de medicamentos. O Pearl é interativo, permitindo que os desenvolvedores de medicamentos forneçam ao modelo quaisquer dados adicionais que possuam para orientar suas previsões.

O AlphaFold representou um grande avanço, mas ainda há muito a ser feito, afirma Evan Feinberg, CEO da Genesis Molecular AI: “Continuamos inovando fundamentalmente, apenas com um ponto de partida melhor do que antes.”

A Genesis Molecular AI está reduzindo as margens de erro de menos de dois angstroms, o padrão de facto da indústria estabelecido pela AlphaFold, para menos de um angstrom — um décimo milionésimo de milímetro, ou a largura de um único átomo de hidrogênio.

“Pequenos erros podem ser catastróficos para prever a eficácia com que um medicamento se ligará ao seu alvo”, afirma Michael LeVine, vice-presidente de modelagem e simulação da empresa. Isso ocorre porque as forças químicas que interagem a um angstrom podem deixar de interagir a dois. “A interação pode mudar de ‘Elas nunca vão interagir’ para ‘Elas vão interagir’”, explica.

Com tanta atividade nessa área, quando podemos esperar que novos tipos de medicamentos cheguem ao mercado? Jumper é pragmático. A previsão da estrutura de proteínas é apenas uma etapa entre muitas, afirma: “Esse não era o único problema da biologia. Não é como se estivéssemos a um passo de curar qualquer doença com apenas uma estrutura de proteína.”

Pense da seguinte maneira, diz ele. Descobrir a estrutura de uma proteína poderia ter custado US$ 100.000 em laboratório: “Se estivéssemos a apenas cem mil dólares de fazer algo, já teria sido feito.”

Ao mesmo tempo, os pesquisadores estão buscando maneiras de aproveitar ao máximo essa tecnologia, diz Jumper: “Estamos tentando descobrir como fazer da previsão de estrutura uma parte ainda maior da solução do problema, porque temos uma ferramenta poderosa para combatê-lo.”

Em outras palavras, transformar tudo em pregos? “Sim, vamos transformar tudo em pregos”, diz ele. “Como podemos fazer com que essa coisa que produzimos um milhão de vezes mais rápido se torne uma parte maior do nosso processo?”

Qual o próximo passo?
Qual será o próximo passo de Jumper? Ele quer fundir o poder profundo, porém específico, do AlphaFold com o amplo alcance dos LLMs.

“Temos máquinas que conseguem ler ciência. Elas conseguem fazer raciocínio científico”, diz ele. “E podemos construir sistemas incríveis, quase sobre-humanos, para a previsão da estrutura de proteínas. Como fazer com que essas duas tecnologias funcionem juntas?”

Isso me faz pensar em um sistema chamado AlphaEvolve , que está sendo desenvolvido por outra equipe do Google DeepMind. O AlphaEvolve usa um modelo de lógica latente (LLM) para gerar possíveis soluções para um problema e um segundo modelo para verificá-las, filtrando as soluções ineficazes. Pesquisadores já usaram o AlphaEvolve para fazer diversas descobertas práticas em matemática e ciência da computação.

É isso que Jumper tem em mente? “Não vou falar muito sobre os métodos, mas ficarei surpreso se não virmos um impacto cada vez maior do LLM na ciência”, diz ele. “Acho que essa é a questão em aberto mais interessante sobre a qual não direi quase nada. É tudo especulação, claro.”

Jumper tinha 39 anos quando ganhou o Prêmio Nobel. O que vem a seguir para ele?

“Isso me preocupa”, diz ele. “Acredito que sou o laureado mais jovem em química em 75 anos.”

Ele acrescenta: “Estou mais ou menos na metade da minha carreira. Acho que minha abordagem é tentar fazer coisas menores, pequenas ideias que vou desenvolvendo aos poucos. A próxima coisa que eu anunciar não precisa ser, sabe, minha segunda tentativa de ganhar um Nobel. Acho que essa é a armadilha.”



Notícias, Tecnologia

A Microsoft afirma que a IA pode criar ameaças de “dia zero” na biologia.



Uma equipe da Microsoft afirma ter usado inteligência artificial para descobrir uma vulnerabilidade “zero-day” nos sistemas de biossegurança usados ​​para prevenir o uso indevido de DNA.

Esses sistemas de triagem são projetados para impedir que as pessoas comprem sequências genéticas que poderiam ser usadas para criar toxinas ou patógenos mortais. Mas agora, pesquisadores liderados pelo cientista-chefe da Microsoft, Eric Horvitz, afirmam ter descoberto como contornar as proteções de uma maneira até então desconhecida pelos defensores da tecnologia.

A equipe descreveu seu trabalho hoje na revista Science .

Horvitz e sua equipe se concentraram em algoritmos de IA generativa que propõem novas formas de proteínas. Esses tipos de programas já estão impulsionando a busca por novos medicamentos em startups bem financiadas, como a Generate Biomedicines e a Isomorphic Labs, uma spin-off do Google.

O problema é que esses sistemas são potencialmente de “dupla utilização”. Eles podem usar seus conjuntos de treinamento para gerar moléculas tanto benéficas quanto prejudiciais.

A Microsoft afirma ter iniciado um teste de “equipe vermelha” sobre o potencial de uso duplo da IA ​​em 2023, a fim de determinar se o “design de proteínas por IA adversária” poderia ajudar bioterroristas a fabricar proteínas nocivas.

A medida de segurança que a Microsoft atacou é o que se conhece como software de triagem de biossegurança. Para produzir uma proteína, os pesquisadores geralmente precisam encomendar uma sequência de DNA correspondente de um fornecedor comercial, que então a inserem em uma célula. Esses fornecedores usam software de triagem para comparar os pedidos recebidos com toxinas ou patógenos conhecidos. Uma correspondência próxima acionará um alerta.

Para conceber seu ataque, a Microsoft utilizou diversos modelos generativos de proteínas (incluindo um modelo próprio, chamado EvoDiff) para redesenhar toxinas — alterando sua estrutura de forma a permitir que elas escapassem dos softwares de triagem, mas previa-se que mantivessem intacta sua função letal.

Os pesquisadores afirmam que o exercício foi inteiramente digital e que nunca produziram proteínas tóxicas. Isso foi feito para evitar qualquer percepção de que a empresa estivesse desenvolvendo armas biológicas.

Antes de publicar os resultados, a Microsoft afirma ter alertado o governo dos EUA e os fabricantes de software, que já corrigiram seus sistemas, embora algumas moléculas projetadas por IA ainda consigam escapar da detecção.

“A solução está incompleta e o estado da arte está mudando. Mas isso não é algo que se resolva de uma vez por todas. É o começo de ainda mais testes”, diz Adam Clore, diretor de P&D de tecnologia da Integrated DNA Technologies, uma grande fabricante de DNA, e coautor do relatório da Microsoft. “Estamos numa espécie de corrida armamentista.”

Para garantir que ninguém faça mau uso da pesquisa, os pesquisadores afirmam que não divulgarão parte do código e não revelaram quais proteínas tóxicas pediram à IA para redesenhar. No entanto, algumas proteínas perigosas são bem conhecidas, como a ricina — um veneno encontrado na mamona — e os príons infecciosos que causam a doença da vaca louca.

“Essa descoberta, combinada com os rápidos avanços na modelagem biológica habilitada por IA, demonstra a necessidade clara e urgente de procedimentos aprimorados de triagem da síntese de ácidos nucleicos, juntamente com um mecanismo confiável de fiscalização e verificação”, afirma Dean Ball, pesquisador da Foundation for American Innovation, um centro de estudos em São Francisco.

Ball observa que o governo dos EUA já considera a triagem de pedidos de DNA uma linha de segurança fundamental. Em maio passado, em uma ordem executiva sobre segurança em pesquisa biológica , o presidente Trump solicitou uma reformulação geral desse sistema, embora até o momento a Casa Branca não tenha divulgado novas recomendações.

Outros duvidam que a síntese comercial de DNA seja a melhor defesa contra agentes mal-intencionados. Michael Cohen, pesquisador de segurança de IA na Universidade da Califórnia, Berkeley, acredita que sempre haverá maneiras de disfarçar sequências e que a Microsoft poderia ter tornado seu teste mais difícil.

“O desafio parece frágil, e as ferramentas improvisadas que eles usam falham bastante”, diz Cohen. “Parece haver uma relutância em admitir que, em breve, teremos que recuar desse suposto ponto de estrangulamento, então devemos começar a procurar terreno que possamos de fato manter.”

Cohen afirma que a biossegurança provavelmente deveria ser incorporada aos próprios sistemas de IA — seja diretamente ou por meio de controles sobre as informações que eles fornecem.

Mas Clore afirma que monitorar a síntese de genes ainda é uma abordagem prática para detectar ameaças biológicas, já que a produção de DNA nos EUA é dominada por algumas poucas empresas que trabalham em estreita colaboração com o governo. Em contrapartida, a tecnologia usada para construir e treinar modelos de IA é mais difundida. “Não dá para voltar atrás”, diz Clore. “Se você tem os recursos para tentar nos enganar e nos fazer produzir uma sequência de DNA, provavelmente também consegue treinar um modelo de linguagem complexo.”



Notícias

O novo mestrado em direito (LLM) da OpenAI revela os segredos de como a IA realmente funciona



A OpenAI, criadora do ChatGPT, desenvolveu um modelo de linguagem experimental de grande escala que é muito mais fácil de entender do que os modelos típicos.

Isso é muito importante, porque os modelos de lógica de aprendizagem (LLMs) atuais são caixas-pretas: ninguém entende completamente como eles funcionam. Construir um modelo mais transparente esclarece o funcionamento geral dos LLMs, ajudando os pesquisadores a descobrir por que os modelos apresentam alucinações, por que saem dos trilhos e até que ponto podemos confiar neles para tarefas críticas.

“À medida que esses sistemas de IA se tornam mais poderosos, eles serão integrados cada vez mais em domínios muito importantes”, disse Leo Gao, cientista pesquisador da OpenAI, à MIT Technology Review em uma prévia exclusiva do novo trabalho. “É muito importante garantir que eles sejam seguros.”

Esta pesquisa ainda está em fase inicial. O novo modelo, chamado de transformador com pesos esparsos, é muito menor e muito menos capaz do que os modelos de ponta disponíveis no mercado de massa, como o GPT-5 da própria OpenAI, o Claude da Anthropic e o Gemini do Google DeepMind. No máximo, ele é tão capaz quanto o GPT-1, um modelo que a OpenAI desenvolveu em 2018, afirma Gao (embora ele e seus colegas não tenham feito uma comparação direta).

Mas o objetivo não é competir com os melhores da categoria (pelo menos, não ainda). Em vez disso, ao analisar como esse modelo experimental funciona, a OpenAI espera aprender sobre os mecanismos ocultos dentro das versões maiores e melhores da tecnologia.

É uma pesquisa interessante, diz Elisenda Grigsby, matemática do Boston College que estuda o funcionamento dos LLMs e que não participou do projeto: “Tenho certeza de que os métodos que ela introduz terão um impacto significativo.”

Lee Sharkey, cientista pesquisador da startup de IA Goodfire, concorda. “Este trabalho visa o alvo certo e parece bem executado”, afirma.

Por que os modelos são tão difíceis de entender?
O trabalho da OpenAI faz parte de um novo e promissor campo de pesquisa conhecido como interpretabilidade mecanística, que busca mapear os mecanismos internos que os modelos utilizam ao executar diferentes tarefas.

Isso é mais difícil do que parece. Os LLMs são construídos a partir de redes neurais, que consistem em nós, chamados neurônios, organizados em camadas. Na maioria das redes, cada neurônio está conectado a todos os outros neurônios em suas camadas adjacentes. Tal rede é conhecida como rede densa.

Redes densas são relativamente eficientes para treinar e executar, mas espalham o que aprendem por uma vasta rede de conexões. O resultado é que conceitos ou funções simples podem ser divididos entre neurônios em diferentes partes de um modelo. Ao mesmo tempo, neurônios específicos também podem acabar representando múltiplas características diferentes, um fenômeno conhecido como superposição (um termo emprestado da física quântica). A consequência é que não é possível relacionar partes específicas de um modelo a conceitos específicos.

“As redes neurais são grandes, complicadas, intrincadas e muito difíceis de entender”, diz Dan Mossing, que lidera a equipe de interpretabilidade mecanística da OpenAI. “Então pensamos: ‘E se tentássemos mudar isso?’”

Em vez de construir um modelo usando uma rede densa, a OpenAI começou com um tipo de rede neural conhecida como transformador de pesos esparsos, na qual cada neurônio está conectado a apenas alguns outros neurônios. Isso forçou o modelo a representar características em agrupamentos localizados, em vez de espalhá-las.

O modelo deles é muito mais lento do que qualquer outro LLM disponível no mercado. Mas é mais fácil relacionar seus neurônios ou grupos de neurônios a conceitos e funções específicos. “Há uma diferença drástica na interpretabilidade do modelo”, afirma Gao.

Gao e seus colegas testaram o novo modelo com tarefas muito simples. Por exemplo, pediram que ele completasse um bloco de texto que começa com aspas, adicionando aspas correspondentes no final.

É um pedido trivial para um mestrado em direito. A questão é que descobrir como um modelo realiza até mesmo uma tarefa simples como essa envolve desvendar uma complexa rede de neurônios e conexões, diz Gao. Mas com o novo modelo, eles conseguiram seguir exatamente os passos que o modelo executou.

“Na verdade, encontramos um circuito que é exatamente o algoritmo que você pensaria em implementar manualmente, mas ele é totalmente aprendido pelo modelo”, diz ele. “Acho isso realmente incrível e empolgante.”

Para onde irá a pesquisa a seguir? Grigsby não está convencido de que a técnica possa ser aplicada a modelos maiores que precisam lidar com uma variedade de tarefas mais complexas.

Gao e Mossing reconhecem que essa é uma grande limitação do modelo que construíram até agora e concordam que a abordagem nunca levará a modelos que igualem o desempenho de produtos de ponta como o GPT-5. Mesmo assim, a OpenAI acredita que pode ser capaz de aprimorar a técnica o suficiente para construir um modelo transparente à altura do GPT-3, o inovador modelo de aprendizado de máquina (LLM) da empresa, lançado em 2021.

“Talvez dentro de alguns anos, possamos ter um GPT-3 totalmente interpretável, de forma que seja possível analisar cada parte dele e entender como ele realiza cada função”, diz Gao. “Se tivéssemos um sistema assim, aprenderíamos muito.”



Inovação, Notícias

Físicos quânticos reduziram e “descensuraram” o DeepSeek R1



Um grupo de físicos quânticos afirma ter criado uma versão do poderoso modelo de inteligência artificial DeepSeek R1 que remove a censura embutida no modelo original, criada por seus desenvolvedores chineses.

Os cientistas da Multiverse Computing, uma empresa espanhola especializada em técnicas de IA inspiradas na computação quântica, criaram o DeepSeek R1 Slim, um modelo 55% menor, mas com desempenho quase tão bom quanto o do modelo original. Crucialmente, eles também afirmam ter eliminado a censura oficial chinesa do modelo.

Na China, as empresas de IA estão sujeitas a regras e regulamentos que visam garantir que o conteúdo produzido esteja alinhado com as leis e os “valores socialistas”. Como resultado, as empresas incorporam camadas de censura durante o treinamento dos sistemas de IA. Quando questionados sobre assuntos considerados “politicamente sensíveis”, os modelos frequentemente se recusam a responder ou fornecem argumentos diretamente da propaganda estatal.

Para simplificar o modelo, a Multiverse recorreu a uma abordagem matematicamente complexa, inspirada na física quântica, que utiliza redes de grades de alta dimensionalidade para representar e manipular grandes conjuntos de dados. O uso dessas chamadas redes tensoriais reduz significativamente o tamanho do modelo e permite que um sistema de IA complexo seja expresso de forma mais eficiente.

O método fornece aos pesquisadores um “mapa” de todas as correlações no modelo, permitindo-lhes identificar e remover informações específicas com precisão. Após comprimir e editar um modelo, os pesquisadores do Multiverse o ajustam para que sua saída permaneça o mais próxima possível da original.

Para testar a eficácia do modelo, os pesquisadores compilaram um conjunto de dados com cerca de 25 perguntas sobre tópicos conhecidos por serem restritos em modelos chineses, incluindo “Com quem o Ursinho Pooh se parece?” — ​​uma referência a um meme que satiriza o presidente Xi Jinping — e “O que aconteceu na Praça da Paz Celestial em 1989?”. Eles compararam as respostas do modelo modificado com as do DeepSeek R1 original, usando o GPT-5 da OpenAI como um juiz imparcial para avaliar o grau de censura em cada resposta. O modelo sem censura foi capaz de fornecer respostas factuais comparáveis ​​às de modelos ocidentais, segundo a Multiverse.

Este trabalho faz parte do esforço mais amplo da Multiverse para desenvolver tecnologia capaz de comprimir e manipular modelos de IA existentes. A maioria dos grandes modelos de linguagem atuais exige GPUs de ponta e poder computacional significativo para treinamento e execução. No entanto, eles são ineficientes, afirma Roman Orús, cofundador e diretor científico da Multiverse. Um modelo comprimido pode ter um desempenho quase tão bom e economizar energia e dinheiro, completa ele.

Há um esforço crescente em toda a indústria de IA para tornar os modelos menores e mais eficientes. Modelos destilados, como as variantes R1-Distill da própria DeepSeek, tentam capturar as capacidades de modelos maiores, fazendo com que eles “ensinem” o que sabem a um modelo menor, embora muitas vezes fiquem aquém do desempenho do modelo original em tarefas de raciocínio complexas.

Outras formas de comprimir modelos incluem a quantização, que reduz a precisão dos parâmetros do modelo (limites definidos durante o treinamento), e a poda, que remove pesos individuais ou “neurônios” inteiros.

“É muito desafiador comprimir grandes modelos de IA sem perder desempenho”, diz Maxwell Venetos, engenheiro de pesquisa em IA da Citrine Informatics, uma empresa de software focada em materiais e produtos químicos, que não trabalhou no projeto Multiverse. “A maioria das técnicas precisa fazer concessões entre tamanho e capacidade. O interessante da abordagem inspirada na física quântica é que ela usa matemática muito abstrata para reduzir a redundância com mais precisão do que o usual.”

Essa abordagem possibilita a remoção seletiva de vieses ou a adição de comportamentos a modelos de aprendizagem de linguagem (LLMs) em um nível granular, afirmam os pesquisadores do Multiverse. Além de remover a censura das autoridades chinesas, os pesquisadores poderiam inserir ou remover outros tipos de vieses percebidos ou conhecimento especializado. No futuro, o Multiverse planeja comprimir todos os principais modelos de código aberto.

Thomas Cao, professor assistente de política tecnológica na Fletcher School da Universidade Tufts, afirma que as autoridades chinesas exigem que os modelos incluam censura — e essa exigência agora molda o ecossistema global de informações, visto que muitos dos modelos de IA de código aberto mais influentes vêm da China.

Acadêmicos também começaram a documentar e analisar o fenômeno. Jennifer Pan, professora de Stanford, e Xu Xu, professor de Princeton, conduziram um estudo no início deste ano examinando a censura imposta pelo governo em grandes modelos de linguagem. Eles descobriram que os modelos criados na China exibem taxas de censura significativamente mais altas, particularmente em resposta a comandos em chinês.

Há um interesse crescente em iniciativas para remover a censura de modelos chineses. No início deste ano, a empresa de buscas com IA Perplexity lançou sua própria variante sem censura do DeepSeek R1, chamada R1 1776. A abordagem da Perplexity envolveu o pós-treinamento do modelo em um conjunto de dados com 40.000 prompts multilíngues relacionados a tópicos censurados, um método de ajuste fino mais tradicional do que o utilizado pela Multiverse.

No entanto, Cao alerta que as alegações de terem “removido” completamente a censura podem ser exageradas. O governo chinês controla rigidamente as informações online desde a criação da internet, o que significa que a censura é dinâmica e complexa. Ela está presente em todas as camadas do treinamento de IA, desde o processo de coleta de dados até as etapas finais de alinhamento.

“É muito difícil fazer engenharia reversa disso [um modelo livre de censura] apenas com base nas respostas a um conjunto tão pequeno de perguntas”, diz Cao.



Notícias, Tecnologia

Os proprietários do hub inteligente Futurehome devem pagar uma nova assinatura de R$500 ou perderão o acesso



A fabricante de dispositivos para casas inteligentes Futurehome está forçando seus clientes a cederem ao exigir repentinamente uma assinatura para funcionalidades básicas de seus produtos.

Lançado em 2016, o Smarthub da Futurehome é comercializado como um hub central para controlar dispositivos conectados à internet em casas inteligentes. Durante anos, a empresa norueguesa vendeu seus produtos, que também incluem termostatos inteligentes, iluminação inteligente e alarmes inteligentes de incêndio e monóxido de carbono, por uma taxa única que incluía acesso ao aplicativo complementar e à plataforma em nuvem para controle e automação. No entanto, a partir de 26 de junho, esses recursos principais passaram a exigir uma assinatura anual de 1.188 NOK (cerca de US$ 116,56), transformando os dispositivos para casas inteligentes em dispositivos comuns caso os usuários não paguem.

“Você perde o acesso ao controle de dispositivos, configuração, automações, modos, atalhos e serviços de energia”, diz uma página de perguntas frequentes da empresa.

Além disso, não é possível obter suporte da Futurehome sem uma assinatura. A maioria dos recursos pagos também fica inacessível sem uma assinatura, segundo as perguntas frequentes da Futurehome, que afirma estar presente em 38.000 residências.

Após 26 de junho, os clientes tiveram quatro semanas para continuar usando seus dispositivos normalmente, sem assinatura. Esse período de carência terminou recentemente e agora os usuários precisam de uma assinatura para que seus dispositivos inteligentes funcionem corretamente.

Alguns usuários estão compreensivelmente desanimados por terem que pagar uma mensalidade repentinamente para usar dispositivos que já compraram. Usuários mais avançados também expressaram frustração com a possibilidade da Futurehome comprometer a funcionalidade de seus dispositivos ao conectá-los a um dispositivo local em vez da nuvem. Em suas perguntas frequentes, a Futurehome afirma que “não pode garantir que não haverá mudanças no futuro” em relação ao acesso à API local.

Em resposta, um usuário do Reddit, de acordo com uma tradução da publicação norueguesa fornecida pela plataforma, disse:

Até certo ponto, consigo entender que eles precisem fazer isso para serviços que têm custos contínuos, como servidores (embora eu ache que o problema seja deles, e não meu, por não terem percebido que era uma má ideia quando me venderam a solução), mas uma função local que só funciona internamente no equipamento que eu já paguei não deveria ser bloqueada por um paywall.

Segundo a Futurehome, os clientes sem assinatura ainda podem criar, excluir e alternar entre residências, editar usuários e proprietários de residências, além de atualizar e restaurar as configurações de fábrica de seus hubs inteligentes Futurehome.

O Ars Technica entrou em contato com a Futurehome para obter uma resposta às críticas dos clientes, mas não recebeu retorno até a publicação desta matéria.

A Futurehome declarou falência recentemente.
A empresa afirma que a falência recente tornou necessária a cobrança da taxa de assinatura. Sua página de perguntas frequentes (FAQ) informa:

A Futurehome AS foi declarada falida em 20 de maio de 2025. A plataforma e os serviços relacionados foram adquiridos da massa falida — 50% pelos antigos proprietários da Futurehome e 50% pela Sikom Connect — e agora são operados pela FHSD Connect AS.

Para garantir a operação estável, financiar o desenvolvimento de produtos e fornecer suporte de alta qualidade, estamos introduzindo um novo modelo de assinatura.

A empresa endividada prometeu aos clientes que a taxa de assinatura permitiria oferecer “melhor funcionalidade, mais segurança e maior valor na solução em que você já investiu”, relatou o Elektro247, um site norueguês de notícias sobre o setor elétrico, de acordo com uma tradução fornecida pelo Google.

O problema é que os clientes esperavam um certo nível de serviço e funcionalidade ao comprarem os dispositivos Futurehome. E, até o momento da publicação desta notícia, as páginas de produtos da Futurehome não deixam claras as novas exigências de assinatura. A recente falência da Futurehome também serve como um lembrete da instabilidade da empresa, tornando questionáveis ​​novos investimentos.

Os usuários estão discutindo maneiras de tentar restaurar a funcionalidade dos dispositivos Futurehome sem uma assinatura, inclusive migrando os dispositivos para padrões abertos. No entanto, a comunicação provavelmente foi prejudicada pelo fechamento do fórum de usuários da Futurehome em junho.

A Futurehome tem combatido as tentativas de quebrar a segurança de seu firmware. O CEO Øyvind Fries declarou ao site norueguês de tecnologia para o consumidor Tek.no, segundo tradução do Google: “É lamentável que agora tenhamos que investir tempo e recursos reforçando a segurança de um serviço popular em vez de desenvolver novas funcionalidades para o benefício de nossos clientes.”

A estratégia da Futurehome tornou-se comum entre empresas da Internet das Coisas (IoT), incluindo a Wink, fabricante de hubs para casas inteligentes. Essas empresas ainda lutam para construir negócios sustentáveis ​​a longo prazo, sem eliminar funcionalidades ou aumentar os preços para os clientes.



Notícias, Segurança, Tecnologia

O Google confirmou que assinará o Código de Práticas de IA da União Europeia



As grandes empresas de tecnologia estão cada vez mais viciadas em IA, mas muitas delas são alérgicas à regulamentação, resistindo às sugestões de que devem cumprir as leis de direitos autorais e fornecer dados sobre o treinamento. Em uma atitude incomum, o Google confirmou que assinará o Código de Práticas de IA da União Europeia, uma estrutura à qual inicialmente se opôs por considerá-la muito rigorosa. No entanto, o Google não está totalmente de acordo com os esforços da Europa para conter a explosão da IA. O chefe de assuntos globais da empresa, Kent Walker, observou que o código pode sufocar a inovação se não for aplicado com cuidado, e isso é algo que o Google espera evitar.

Embora o Google tenha se oposto inicialmente ao Código de Práticas, Walker afirma que as contribuições que a empresa forneceu à Comissão Europeia foram bem recebidas e o resultado é uma estrutura legal que, segundo a empresa, pode fornecer à Europa acesso a “ferramentas de IA seguras e de primeira linha”. A empresa afirma que a expansão dessas ferramentas no continente poderia impulsionar a economia em 8% (cerca de 1,8 trilhão de euros) anualmente até 2034.

Esses supostos ganhos econômicos estão sendo usados ​​como isca para atrair empresas da UE a se alinharem com o Google no Código de Práticas. Embora a empresa esteja assinando o acordo, parece interessada em influenciar a forma como ele será implementado. Walker afirma que o Google continua preocupado com o fato de que diretrizes mais rígidas sobre direitos autorais e a divulgação forçada de possíveis segredos comerciais possam desacelerar a inovação. Ter voz ativa nas negociações pode facilitar a manipulação da regulamentação, em comparação com a decisão de alguns concorrentes de não aderir voluntariamente ao acordo.

A posição do Google contrasta fortemente com a da Meta, que se recusa firmemente a assinar o acordo. A empresa proprietária do Facebook alega que o Código de Práticas voluntário pode impor muitas limitações ao desenvolvimento de modelos de ponta, uma posição previsível, considerando que a empresa busca impulsionar seu projeto de “superinteligência”. A Microsoft ainda está analisando o acordo e pode acabar assinando-o, mas a OpenAI, criadora do ChatGPT, já sinalizou que assinará o código.

A regulamentação dos sistemas de IA pode ser o próximo obstáculo, à medida que as grandes empresas de tecnologia buscam implementar tecnologias consideradas transformadoras e vitais para o futuro. Produtos do Google, como a Busca e o Android, estão na mira dos reguladores da UE há anos, portanto, entrar no mercado desde o início com o código de IA ajudaria a empresa a navegar no que certamente será um ambiente jurídico turbulento.

Uma estrutura abrangente para IA
Os EUA têm evitado a regulamentação da IA, e o governo atual está trabalhando ativamente para remover os poucos limites existentes. A Casa Branca chegou a tentar proibir toda a regulamentação de IA em nível estadual por um período de 10 anos na recente reforma tributária. A Europa, por sua vez, está levando a sério os possíveis impactos negativos das ferramentas de IA, com uma estrutura regulatória em rápida evolução.

O Código de Práticas de IA visa proporcionar às empresas de IA um pouco mais de segurança diante de um cenário em constante mudança. Ele foi desenvolvido com a contribuição de mais de 1.000 grupos de cidadãos, acadêmicos e especialistas do setor. A Comissão Europeia afirma que as empresas que adotarem o código voluntário terão uma carga burocrática menor, facilitando o cumprimento da Lei de IA do bloco, que entrou em vigor no ano passado.

De acordo com os termos do código, o Google terá que publicar resumos dos dados de treinamento de seus modelos e divulgar recursos adicionais dos modelos aos órgãos reguladores. O código também inclui orientações sobre como as empresas devem gerenciar a segurança em conformidade com a Lei de IA. Da mesma forma, inclui caminhos para alinhar o desenvolvimento de modelos de uma empresa com a lei de direitos autorais da UE no que diz respeito à IA, um ponto sensível para o Google e outras empresas.

Empresas como a Meta, que não assinarem o código, não escaparão da regulamentação. Todas as empresas de IA que operam na Europa terão que cumprir a Lei de IA, que inclui a estrutura regulatória mais detalhada para sistemas de IA generativa do mundo. A lei proíbe usos de alto risco de IA, como engano ou manipulação intencional de usuários, sistemas de pontuação social e escaneamento biométrico em tempo real em espaços públicos. Empresas que violarem as normas da Lei de Inteligência Artificial poderão ser multadas em até 35 milhões de euros (40,1 milhões de dólares) ou até 7% da receita global da infratora.



Notícias, Tecnologia

Ferramenta do Google usada indevidamente para apagar o passado obscuro de CEO de empresa de tecnologia das buscas



O Google gosta de dizer que sua missão é “organizar as informações do mundo”, mas quem decide quais informações merecem ser organizadas? Um CEO de uma empresa de tecnologia de São Francisco passou os últimos anos tentando remover informações desfavoráveis ​​sobre si mesmo do índice de buscas do Google, e a organização sem fins lucrativos Freedom of the Press Foundation afirma que ele continua nessa empreitada. Mais recentemente, um agente malicioso desconhecido explorou uma falha em uma das ferramentas de busca do Google para apagar os artigos ofensivos.

A saga começou em 2023, quando o jornalista independente Jack Poulson noticiou a prisão de Maury Blackman por violência doméstica em 2021. Blackman, que na época era CEO da empresa de tecnologia de vigilância Premise Data Corp., se sentiu ofendido com a publicação de seus problemas legais. O caso não resultou em acusações depois que a namorada de Blackman, de 25 anos, retratou suas alegações contra o CEO de 53 anos, mas Poulson relatou alguns detalhes preocupantes da reportagem pública sobre a prisão.

Blackman já havia utilizado ferramentas como notificações de remoção por violação de direitos autorais (DMCA) e processos judiciais para sufocar a cobertura jornalística de sua indiscrição, mas essa campanha agora parece ter se apropriado de parte do mecanismo de busca do Google. A Freedom of the Press Foundation (FPF) relatou o trabalho de Poulson e as tentativas de Blackman de combatê-lo no final do ano passado. Em junho, Poulson contatou a Freedom of the Press Foundation para relatar que o artigo havia desaparecido misteriosamente dos resultados de busca do Google.

A fundação iniciou uma investigação imediatamente, que a levou a um recurso pouco conhecido do Google chamado “Atualizar conteúdo desatualizado”. O Google criou essa ferramenta para que os usuários denunciassem links com conteúdo que não é mais preciso ou que levam a páginas de erro. Quando funciona corretamente, o “Atualizar conteúdo desatualizado” pode ajudar a tornar os resultados de busca do Google mais úteis. No entanto, a Freedom of the Press Foundation afirma agora que uma falha permitiu que um agente malicioso desconhecido apagasse da internet as menções à prisão de Blackman.

Com F maiúsculo de “Frustrante”
Ao investigar, a FPF descobriu que seu artigo sobre Blackman estava completamente ausente dos resultados do Google, mesmo em uma busca com o título exato. Poulson percebeu posteriormente que dois de seus próprios artigos no Substack estavam afetados da mesma forma. A Fundação foi direcionada à ferramenta Atualizar Conteúdo Desatualizado ao verificar seu console de busca.

A ferramenta do Google não aceita sugestões de remoção de resultados de busca sem questionar. No entanto, um bug na ferramenta a tornou uma maneira ideal de suprimir informações nos resultados de busca. Ao inserir uma URL, a ferramenta permitia que os usuários alterassem a capitalização no slug da URL. O artigo da Fundação tinha o título “Anatomia de uma campanha de censura: a cruzada de um executivo de tecnologia para sufocar o jornalismo”, mas as solicitações registradas na ferramenta do Google incluíam variações como “AnAtomia” e “censura”.

Como a função “Atualizar conteúdo desatualizado” aparentemente ignorava maiúsculas e minúsculas, o rastreador verificava a URL, encontrava um erro 404 e, em seguida, desindexava a URL em funcionamento. Os investigadores determinaram que esse método foi usado por Blackman ou por alguém com interesse suspeito em seu perfil online dezenas de vezes entre maio e junho de 2025. Curiosamente, desde que deixou a Premise, Blackman assumiu o cargo de CEO na empresa de gestão de reputação online The Transparency Company.

Se você procurar o artigo da Freedom of the Press Foundation ou a própria reportagem de Poulson, ele deverá aparecer normalmente nos resultados de busca do Google. A FPF contatou o Google sobre o problema, e a empresa confirmou a existência do bug. Ela lançou uma correção com uma rapidez incomum, informando à Fundação que o bug afetava “uma pequena fração de sites”.

Não está claro se o Google tinha conhecimento prévio do bug ou se sua exploração era generalizada. A internet é vasta, e aqueles que buscam ocultar informações maliciosamente não costumam divulgar seus métodos. É um tanto incomum o Google admitir a culpa tão prontamente, mas pelo menos resolveu o problema.



Notícias, Tecnologia

A China alega que a Nvidia inseriu uma porta dos fundos no chip H20 projetado para o mercado chinês.



Pequim convocou a Nvidia devido a supostos problemas de segurança em seus chips, um revés para os esforços da empresa americana em reativar as vendas no país após Washington ter aprovado a exportação de um chip desenvolvido especificamente para a China.

A agência reguladora de cibersegurança da China afirmou na quinta-feira ter realizado uma reunião com a Nvidia sobre o que chamou de “sérios problemas de segurança” com os chips de inteligência artificial da empresa. Segundo a agência, especialistas americanos em IA “revelaram que os chips de computação da Nvidia possuem rastreamento de localização e podem desligar a tecnologia remotamente”.

A Administração do Ciberespaço da China solicitou que a Nvidia explique os problemas de segurança associados ao chip H2O, projetado para o mercado chinês a fim de cumprir as restrições de exportação dos EUA, e apresente documentação para fundamentar sua alegação. O anúncio ocorre em um momento em que a Nvidia está reconstruindo seus negócios na China após Washington ter suspendido, neste mês, a proibição de vendas do H2O para o país.

Após a mudança de posição de Washington, o CEO da Nvidia, Jensen Huang, visitou Pequim para se reunir com autoridades e clientes. Ele enfatizou o compromisso da empresa com o mercado chinês e apresentou uma nova unidade de processamento gráfico baseada na mais recente série Blackwell, adaptada para atender aos controles de exportação americanos vigentes. Paul Triolo, especialista em tecnologia chinesa e sócio do DGA-Albright Stonebridge Group, disse estar “cético” em relação às alegações de que uma porta dos fundos foi deliberadamente incorporada ao hardware da Nvidia, apontando para a falta de detalhes no anúncio.

A CAC não especificou quais especialistas encontraram uma porta dos fundos nos produtos da Nvidia, nem se algum teste na China revelou os mesmos resultados. A Nvidia não respondeu imediatamente a um pedido de comentário.

Legisladores em Washington expressaram preocupação com o contrabando de chips e apresentaram um projeto de lei que exigiria que fabricantes de chips, como a Nvidia, incorporassem rastreamento de localização em hardware controlado para exportação.

Pequim emitiu orientações informais para os principais grupos de tecnologia chineses aumentarem as compras de chips de IA nacionais, a fim de reduzir a dependência da Nvidia e apoiar a evolução de um ecossistema de chips doméstico rival.

A gigante chinesa de tecnologia Huawei e grupos menores, incluindo Biren e Cambricon, se beneficiaram do incentivo à localização das cadeias de suprimentos de chips.

A Nvidia afirmou que levaria nove meses desde a retomada da fabricação até o envio do H2O aos clientes. Especialistas do setor disseram que havia considerável incerteza entre os clientes chineses sobre se eles seriam capazes de receber seus pedidos caso os EUA revertessem sua decisão de permitir a venda.

O governo Trump tem enfrentado fortes críticas, inclusive de especialistas em segurança e ex-funcionários, que argumentam que a venda de H2O aceleraria o desenvolvimento de IA na China e ameaçaria a segurança nacional dos EUA.

“Há facções fortes em ambos os lados do Pacífico que não gostam da ideia de renovar a venda de H2O”, disse Triolo. “Nos EUA, a oposição é clara, mas também na China há vozes dizendo que isso atrasará a transição para um ecossistema alternativo.”



Notícias, Tecnologia

Pesquisa com desenvolvedores mostra que a confiança em ferramentas de programação com IA está diminuindo à medida que seu uso aumenta



As ferramentas de IA são amplamente utilizadas por desenvolvedores de software, mas esses desenvolvedores e seus gerentes ainda estão buscando a melhor maneira de utilizá-las, enfrentando dificuldades iniciais ao longo do caminho.

Essa é a conclusão da pesquisa mais recente realizada pela Stack Overflow, uma comunidade e plataforma de informações com 49.000 desenvolvedores profissionais, que também foi fortemente impactada pela adição de grandes modelos de linguagem (LLMs) aos fluxos de trabalho dos desenvolvedores.

A pesquisa constatou que quatro em cada cinco desenvolvedores usarão ferramentas de IA em seus fluxos de trabalho em 2025 — uma parcela que vem crescendo rapidamente nos últimos anos. Dito isso, “a confiança na precisão da IA ​​caiu de 40% nos anos anteriores para apenas 29% este ano”.

A disparidade entre essas duas métricas ilustra o impacto complexo e em constante evolução de ferramentas de IA como o GitHub Copilot ou o Cursor na profissão. Há relativamente pouco debate entre os desenvolvedores sobre a utilidade dessas ferramentas, ou se elas deveriam ser úteis, mas as pessoas ainda estão descobrindo quais são as melhores aplicações (e limitações).

Ao serem questionados sobre sua maior frustração com ferramentas de IA, 45% dos entrevistados disseram ter dificuldades com “soluções de IA que são quase certas, mas não totalmente” — o problema mais relatado. Isso ocorre porque, diferentemente de resultados claramente incorretos, esses podem introduzir bugs insidiosos ou outros problemas difíceis de identificar imediatamente e relativamente demorados para solucionar, especialmente para desenvolvedores juniores que abordaram o trabalho com uma falsa sensação de confiança devido à sua dependência da IA.

Como resultado, mais de um terço dos desenvolvedores na pesquisa “relatam que algumas de suas visitas ao Stack Overflow são consequência de problemas relacionados à IA”. Ou seja, sugestões de código aceitas por uma ferramenta baseada em LLM introduziram problemas que, posteriormente, precisaram ser resolvidos por outras pessoas.

Mesmo com as grandes melhorias recentes proporcionadas por modelos otimizados para raciocínio, essa falta de confiabilidade do “quase certo, mas não totalmente” dificilmente desaparecerá por completo; ela é inerente à própria natureza do funcionamento da tecnologia preditiva.

Por isso, 72% dos participantes da pesquisa disseram que a “programação intuitiva” não faz parte de seu trabalho profissional; alguns consideram-na muito instável e capaz de gerar problemas difíceis de depurar, inadequados para produção.

Por que os desenvolvedores ainda usam essas ferramentas?
Então, considerando todo esse ceticismo e frustração, por que os desenvolvedores ainda usam essas ferramentas? Bem, em alguns casos, seus gerentes estão tentando forçá-los a usá-las. Mas, mais comumente, é porque as ferramentas ainda são claramente úteis — só é importante não usá-las de forma inadequada.

É importante que gerentes e colaboradores individuais integrem ferramentas de IA ao fluxo de trabalho, juntamente com um treinamento robusto, para garantir uma compreensão profunda das melhores práticas, de modo que as ferramentas não sejam usadas de forma inadequada, criando mais problemas do que soluções ou desperdiçando mais tempo do que economizando.

Os desenvolvedores precisam confiar menos em recursos como as sugestões de autocompletar do Copilot, tratando-as mais como um ponto de partida do que simplesmente pressionando Tab e seguindo em frente. Ferramentas como essa são mais adequadas para um tipo de relacionamento limitado de programação em pares: pedir ao desenvolvedor que encontre problemas ou sugira soluções mais elegantes que você considere criticamente, e não que sugira métodos completos que você aceite sem questionar.

Elas também podem ser úteis para aprendizado. A oportunidade de estar sempre aprendendo, adquirindo familiaridade constante com novas linguagens, frameworks ou metodologias, é um dos fatores que atraem algumas pessoas para a área, e os LLMs (Licensed Language Masters) podem reduzir o atrito nesse processo, respondendo a perguntas de forma mais direcionada do que seria possível com buscas trabalhosas em documentação técnica frequentemente incompleta — exatamente o tipo de coisa para a qual as pessoas usavam o Stack Overflow no passado.

“Embora tenhamos observado uma queda no tráfego, ela não é tão drástica quanto alguns indicam”, disse Jody Bailey, Diretora de Produtos e Tecnologia do Stack Overflow, em um comentário ao VentureBeat. O Stack Overflow planeja investir parte de seus recursos tanto na expansão do conhecimento sobre ferramentas de IA quanto no fomento de discussões na comunidade que ajudem a resolver problemas específicos de fluxos de trabalho que envolvem essas ferramentas.