Archives:

Notícias

A corrida para criar o bebê perfeito está gerando um dilema ético



Imagine, por um instante, a mancha translúcida na lente de um microscópio: um blastocisto humano, o espécime biológico que emerge cerca de cinco dias após o encontro fatídico entre o óvulo e o espermatozoide. Esse aglomerado de células, do tamanho de um grão de areia retirado de uma praia caribenha de areia branca e fina, contém o potencial latente de uma vida futura: 46 cromossomos, milhares de genes e aproximadamente seis bilhões de pares de bases de DNA — um manual de instruções para construir um ser humano único.

Agora imagine um pulso de laser abrindo um buraco na camada mais externa do blastocisto para que um punhado de células possa ser aspirado por uma micropipeta. Este é o momento, graças aos avanços na tecnologia de sequenciamento genético, em que se torna possível ler praticamente todo esse manual de instruções.

Um campo emergente da ciência busca usar a análise obtida a partir desse procedimento para prever que tipo de pessoa aquele embrião poderá se tornar. Alguns pais recorrem a esses testes para evitar transmitir doenças genéticas devastadoras que são comuns em suas famílias. Um grupo muito menor, movido pelo sonho de obter diplomas em universidades de prestígio ou de ter filhos atraentes e bem-comportados, está disposto a pagar dezenas de milhares de dólares para otimizar a inteligência, a aparência e a personalidade. Alguns dos primeiros e mais entusiasmados defensores dessa tecnologia são membros da elite do Vale do Silício, incluindo bilionários da tecnologia como Elon Musk, Peter Thiel e Brian Armstrong, CEO da Coinbase.

A seleção de embriões se assemelha menos a uma oficina de “construa um bebê” e mais a uma loja onde os pais podem escolher seus futuros filhos entre vários modelos disponíveis — cada um com sua respectiva ficha técnica.

Mas os clientes das empresas que estão surgindo para fornecer esse serviço ao público podem não estar recebendo o que pagam. Especialistas em genética vêm destacando as potenciais deficiências desse teste há anos. Um artigo de 2021, de membros da Sociedade Europeia de Genética Humana, afirmou: “Nenhuma pesquisa clínica foi realizada para avaliar sua eficácia diagnóstica em embriões. Os pacientes precisam ser devidamente informados sobre as limitações desse uso”. E um artigo publicado em maio deste ano no Journal of Clinical Medicine corroborou essa preocupação e expressou reservas específicas sobre a triagem para transtornos psiquiátricos e características não relacionadas a doenças: “Infelizmente, nenhuma pesquisa clínica foi publicada até o momento avaliando de forma abrangente a eficácia dessa estratégia [de teste preditivo]. A conscientização do paciente sobre as limitações desse procedimento é fundamental”.

Além disso, as premissas subjacentes a alguns desses trabalhos — de que a forma como uma pessoa se torna é produto não de privilégios ou circunstâncias, mas de fatores biológicos inatos — transformaram essas empresas em um foco de controvérsia política.

À medida que essa tecnologia de nicho começa a se popularizar, cientistas e especialistas em ética correm para enfrentar as implicações — para o nosso contrato social, para as gerações futuras e para a nossa própria compreensão do que significa ser humano.

O teste genético pré-implantacional (PGT), embora ainda relativamente raro, não é uma novidade. Desde a década de 1990, os pais que se submetem à fertilização in vitro têm acesso a diversos testes genéticos antes de escolher qual embrião utilizar. Um tipo conhecido como PGT-M pode detectar doenças monogênicas como fibrose cística, anemia falciforme e doença de Huntington. O PGT-A pode determinar o sexo do embrião e identificar anomalias cromossômicas que podem levar a condições como a síndrome de Down ou reduzir as chances de implantação bem-sucedida do embrião no útero. O PGT-SR ajuda os pais a evitar embriões com problemas como segmentos cromossômicos duplicados ou ausentes.

Todos esses testes identificam problemas genéticos claros e relativamente fáceis de detectar, mas a maior parte do manual de instruções genéticas contido em um embrião está escrita em um código muito mais complexo. Nos últimos anos, surgiu um mercado emergente em torno de uma nova versão mais avançada do processo de teste, chamada PGT-P: teste genético pré-implantacional para distúrbios poligênicos (e, segundo alguns, características) — ou seja, resultados determinados pela interação complexa de centenas ou milhares de variantes genéticas.

Em 2020, nasceu o primeiro bebê selecionado por meio do PGT-P. Embora o número exato seja desconhecido, estima-se que centenas de crianças já tenham nascido com o auxílio dessa tecnologia. Com a comercialização da tecnologia, é provável que esse número aumente.

A seleção de embriões se assemelha menos a uma oficina de “construa um bebê” e mais a uma loja onde os pais podem escolher seus futuros filhos entre vários modelos disponíveis — cada um com fichas técnicas indicando suas predisposições.

Algumas startups, munidas de dezenas de milhões de dólares em investimentos do Vale do Silício, desenvolveram algoritmos proprietários para calcular essas estatísticas — analisando um grande número de variantes genéticas e produzindo uma “pontuação de risco poligênico” que mostra a probabilidade de um embrião desenvolver uma variedade de características complexas.

Nos últimos cinco anos, aproximadamente, duas empresas — Genomic Prediction e Orchid — dominaram esse pequeno mercado, concentrando seus esforços na prevenção de doenças. Mas, mais recentemente, surgiram duas novas concorrentes de grande impacto: Nucleus Genomics e Herasight, que rejeitaram a abordagem mais cautelosa de suas antecessoras e se aventuraram no controverso território dos testes genéticos para inteligência. (A Nucleus também oferece testes para uma ampla variedade de outras características comportamentais e relacionadas à aparência.)

As limitações práticas das pontuações de risco poligênico são substanciais. Para começar, ainda há muito que não entendemos sobre as complexas interações genéticas que impulsionam características e distúrbios poligênicos. Além disso, os conjuntos de dados de biobancos nos quais se baseiam tendem a representar, em sua grande maioria, indivíduos com ascendência da Europa Ocidental, o que dificulta a geração de pontuações confiáveis ​​para pacientes de outras origens. Essas pontuações também carecem do contexto completo do ambiente, estilo de vida e da miríade de outros fatores que podem influenciar as características de uma pessoa. E embora as pontuações de risco poligênico possam ser eficazes na detecção de grandes tendências em nível populacional, sua capacidade preditiva cai significativamente quando o tamanho da amostra é tão pequeno quanto um único lote de embriões que compartilham grande parte do mesmo DNA.

A comunidade médica — incluindo organizações como a Sociedade Americana de Genética Humana , o Colégio Americano de Genética Médica e Genômica e a Sociedade Americana de Medicina Reprodutiva — geralmente se mostra cautelosa quanto ao uso de escores de risco poligênico para a seleção de embriões. “A prática avançou rápido demais com poucas evidências”, escreveu o Colégio Americano de Genética Médica e Genômica em um comunicado oficial em 2024.

Mas, além das questões sobre se as evidências comprovam a eficácia da tecnologia, os críticos das empresas que a comercializam as acusam de reviver uma ideologia perturbadora: a eugenia, ou a crença de que a reprodução seletiva pode ser usada para aprimorar a humanidade. De fato, algumas das vozes que demonstraram maior convicção de que esses métodos podem prever com sucesso características não patológicas fizeram afirmações surpreendentes sobre hierarquias genéticas naturais e diferenças raciais inatas.

No entanto, todos concordam que essa nova onda de tecnologia está ajudando a reacender um debate secular sobre natureza versus criação.

O termo “eugenia” foi cunhado em 1883 por um antropólogo e estatístico britânico chamado Sir Francis Galton, inspirado em parte pela obra de seu primo Charles Darwin. Ele o derivou de uma palavra grega que significa “de boa linhagem, hereditariamente dotado de qualidades nobres”.

Alguns dos capítulos mais sombrios da história moderna foram construídos sobre o legado de Galton, do Holocausto às leis de esterilização forçada que afetaram certos grupos nos Estados Unidos até o século XX. A ciência moderna demonstrou os muitos problemas lógicos e empíricos da metodologia de Galton. (Para começar, ele considerava conceitos vagos como “eminência” — bem como infecções como sífilis e tuberculose — como fenótipos hereditários, ou seja, características resultantes da interação entre genes e ambiente.)

Ainda hoje, a influência de Galton persiste no campo da genética comportamental, que investiga as raízes genéticas das características psicológicas. A partir da década de 1960, pesquisadores nos EUA começaram a revisitar um dos métodos prediletos de Galton: os estudos com gêmeos. Muitos desses estudos, que analisavam pares de gêmeos idênticos e fraternos para tentar determinar quais características eram hereditárias e quais resultavam da socialização, foram financiados pelo governo americano. O mais conhecido deles, o Estudo de Gêmeos de Minnesota, também recebeu verbas do Pioneer Fund, uma organização sem fins lucrativos, hoje extinta, que promovia a eugenia e o “aprimoramento racial” desde sua fundação em 1937.

O debate entre natureza e criação atingiu um ponto de inflexão importante em 2003, quando o Projeto Genoma Humano foi declarado concluído. Após 13 anos e a um custo de quase 3 bilhões de dólares, um consórcio internacional de milhares de pesquisadores sequenciou 92% do genoma humano pela primeira vez.

Hoje, o custo do sequenciamento de um genoma pode ser tão baixo quanto US$ 600, e uma empresa afirma que em breve cairá ainda mais. Essa redução drástica possibilitou a construção de enormes bancos de dados de DNA, como o UK Biobank e o All of Us dos Institutos Nacionais de Saúde (NIH), cada um contendo dados genéticos de mais de meio milhão de voluntários. Recursos como esses permitiram que pesquisadores realizassem estudos de associação genômica ampla (GWAS, na sigla em inglês), que identificam correlações entre variantes genéticas e características humanas por meio da análise de polimorfismos de nucleotídeo único (SNPs) — a forma mais comum de variação genética entre indivíduos. Os resultados desses estudos servem como ponto de referência para o desenvolvimento de escores de risco poligênico.

A maioria dos GWASs (estudos de associação genômica ampla) tem se concentrado na prevenção de doenças e na medicina personalizada. Mas, em 2011, um grupo de pesquisadores médicos, cientistas sociais e economistas lançou o Consórcio de Associação Genética em Ciências Sociais (SSGAC) para investigar a base genética de desfechos sociais e comportamentais complexos. Um dos fenótipos em que se concentraram foi o nível de escolaridade alcançado pelas pessoas.

“Foi um fenótipo um tanto conveniente”, explica Patrick Turley, economista e membro do comitê diretivo do SSGAC, visto que o nível de escolaridade é rotineiramente registrado em pesquisas quando dados genéticos são coletados. Ainda assim, “ficou claro que os genes desempenham algum papel”, afirma. “E tentar entender qual é esse papel, eu acho, é realmente interessante.” Ele acrescenta que os cientistas sociais também podem usar dados genéticos para tentar “entender melhor o papel que se deve a vias não genéticas”.

Muitos na esquerda geralmente estão dispostos a admitir que diversas características, desde o vício até a obesidade, são influenciadas geneticamente. No entanto, a capacidade cognitiva hereditária parece estar “fora de questão para nós, sendo considerada uma fonte de diferença”.

O trabalho imediatamente provocou sentimentos de desconforto — sobretudo entre os próprios membros do consórcio, que temiam poder, involuntariamente, reforçar o racismo, a desigualdade e o determinismo genético.

Isso também gerou bastante desconforto em alguns círculos políticos, afirma Kathryn Paige Harden, psicóloga e geneticista comportamental da Universidade do Texas em Austin, que diz ter passado grande parte de sua carreira defendendo o argumento impopular de que os genes são preditores relevantes de resultados sociais para seus colegas liberais.

Harden acredita que um ponto forte da esquerda é a capacidade de reconhecer “que os corpos são diferentes uns dos outros de uma forma que importa”. Muitos estão dispostos a admitir que diversas características, da dependência química à obesidade, são influenciadas geneticamente. No entanto, ela afirma que a capacidade cognitiva hereditária parece ser “algo inaceitável para nós, como uma fonte de diferença que impacta nossas vidas”.

Harden acredita que os genes são importantes para a nossa compreensão de características como a inteligência e que isso deve ajudar a moldar políticas públicas progressistas. Ela dá o exemplo de um departamento de educação que busca intervenções políticas para melhorar as notas de matemática em um determinado distrito escolar. Se uma pontuação de risco poligênico estiver “tão fortemente correlacionada com as notas escolares” quanto a renda familiar, diz ela sobre os alunos desse distrito, então “não coletar deliberadamente essa informação [genética], ou não saber sobre ela, torna a pesquisa mais difícil [e] as conclusões piores?”.

Para Harden, persistir nessa estratégia de evasão por medo de encorajar os eugenistas é um erro. Se “insistir que o QI é um mito e que os genes não têm nada a ver com ele fosse eficaz para neutralizar a eugenia”, diz ela, “já teria funcionado”.

Parte da razão pela qual essas ideias são tão tabu em muitos círculos é que o debate atual em torno do determinismo genético ainda está profundamente impregnado pelas ideias de Galton — e se tornou uma fixação particular entre a direita online.

Após Elon Musk assumir o controle do Twitter (agora X) em 2022 e afrouxar suas restrições ao discurso de ódio, uma enxurrada de contas começou a compartilhar publicações racistas , algumas especulando sobre as origens genéticas da desigualdade enquanto argumentavam contra a imigração e a integração racial. O próprio Musk frequentemente republica e interage com contas como Crémieux Recueil, pseudônimo do pesquisador independente Jordan Lasker, que escreveu sobre a “diferença de QI entre negros e brancos”, e i/o, uma conta anônima que certa vez elogiou Musk por “reconhecer dados sobre raça e crime”, dizendo que isso “fez mais para aumentar a conscientização sobre as desproporcionalidades observadas nesses dados do que qualquer outra coisa que eu me lembre”. (Em resposta às alegações de que sua pesquisa incentiva a eugenia, Lasker escreveu à MIT Technology Review : “O entendimento popular de eugenia se refere à coerção e à exclusão de pessoas consideradas ‘indesejáveis’ do grupo reprodutivo. Isso não tem nada a ver com isso, portanto, não se qualifica como eugenia segundo esse entendimento popular do termo.” Após a publicação, o i/o escreveu em um e-mail: “Só porque as diferenças de inteligência em nível individual são em grande parte hereditárias, não significa que as diferenças de grupo na inteligência medida… sejam devidas a diferenças genéticas entre os grupos”, mas que esta última questão não é “cientificamente comprovada” e é “uma área de pesquisa extremamente importante (e necessária) que deve ser financiada em vez de se tornar tabu”. Ele acrescentou: “Nunca argumentei contra a integração racial, o casamento inter-racial ou qualquer coisa do tipo.” X e Musk não responderam aos pedidos de comentários.)

Harden, no entanto, alerta para o perigo de desconsiderar o trabalho de toda uma área de pesquisa por causa de alguns neorreacionários barulhentos. “Acho que pode existir essa ideia de que a tecnologia está dando origem ao racismo terrível”, diz ela. A verdade, acredita ela, é que “o racismo já existia antes de qualquer tecnologia”.

Em 2019, uma empresa chamada Genomic Prediction começou a oferecer o primeiro teste poligênico pré-implantacional comercialmente disponível. Com o LifeView Embryo Health Score, os futuros pais podem avaliar a predisposição de seus embriões a problemas de saúde geneticamente complexos, como câncer, diabetes e doenças cardíacas. O preço do serviço começa em US$ 3.500. A Genomic Prediction utiliza uma técnica chamada microarray de SNPs, que identifica locais específicos no genoma onde ocorrem variantes comuns. Os resultados são então comparados com GWASs (estudos de associação genômica ampla) que mostram correlações entre variantes genéticas e determinadas doenças.

Quatro anos depois, uma empresa chamada Orchid começou a oferecer um teste concorrente. O Relatório de Genoma Completo do Embrião da Orchid se destacou por alegar sequenciar mais de 99% do genoma de um embrião, permitindo detectar novas mutações e, segundo a empresa, diagnosticar doenças raras com mais precisão. Por US$ 2.500 por embrião, os pais podem acessar pontuações de risco poligênico para 12 distúrbios, incluindo esquizofrenia, câncer de mama e hipotireoidismo.

A Orchid foi fundada por uma mulher chamada Noor Siddiqui. Antes de obter seus diplomas de graduação e pós-graduação em Stanford, ela recebeu a bolsa Thiel — uma bolsa de US$ 200.000 concedida a jovens empreendedores dispostos a trabalhar em suas ideias em vez de frequentar a faculdade — quando ainda era adolescente, em 2012. Isso a preparou para atrair a atenção de membros da elite tecnológica, tanto como clientes quanto como investidores. Sua empresa já arrecadou US$ 16,5 milhões de investidores como Vitalik Buterin, fundador do Ethereum, Balaji Srinivasan, ex-CTO da Coinbase, e Armstrong, CEO da Coinbase.

Em agosto, Siddiqui fez a sugestão controversa de que os pais que optam por não fazer testes genéticos podem ser considerados irresponsáveis. “Sejam honestos: vocês estão bem com o potencial sofrimento do seu filho pelo resto da vida só para se sentirem moralmente superiores…”, escreveu ela no X.

Os americanos têm opiniões diversas sobre a tecnologia emergente. Em 2024, um grupo de bioeticistas entrevistou 1.627 adultos nos EUA para determinar suas atitudes em relação a uma variedade de critérios de testes poligênicos. Uma grande maioria aprovou os testes para condições de saúde física como câncer, doenças cardíacas e diabetes. A triagem para transtornos de saúde mental, como depressão, TOC e TDAH, obteve uma resposta mais mista, mas ainda positiva. Características relacionadas à aparência, como cor da pele, calvície e altura, receberam menos aprovação como algo para o qual se deva realizar testes.

A inteligência foi uma das características mais controversas — o que não surpreende, dada a forma como foi instrumentalizada ao longo da história e a falta de consenso cultural sobre como deveria ser definida. (Em muitos países, os testes de inteligência em embriões são fortemente regulamentados; no Reino Unido, a prática é totalmente proibida.) Na pesquisa de 2024, 36,9% dos entrevistados aprovaram o teste genético pré-implantacional para inteligência, 40,5% desaprovaram e 22,6% disseram estar indecisos.

Apesar da divergência, a inteligência tem sido uma das características mais discutidas como alvo de testes. Desde o início, a Genomic Prediction afirma ter recebido consultas “do mundo todo” sobre testes de inteligência, segundo Diego Marin, chefe de desenvolvimento de negócios globais e assuntos científicos da empresa.

Em determinado momento, a empresa ofereceu um preditor para o que chamava de “deficiência intelectual”. Após algumas críticas questionando tanto a capacidade preditiva quanto a ética dessas pontuações, a empresa descontinuou o recurso. “Nossa missão e visão para esta empresa não é melhorar [um bebê], mas reduzir o risco de doenças”, disse Marin. “Quando se trata de características como QI, cor da pele, altura ou algo que seja puramente estético e não tenha nenhuma relação com uma doença, simplesmente não investimos nisso.”

A Orchid, por outro lado, realiza testes para marcadores genéticos associados à deficiência intelectual e ao atraso no desenvolvimento. Mas isso pode não ser tudo. De acordo com um funcionário da empresa, que falou sob condição de anonimato, testes de inteligência também são oferecidos a clientes de alto poder aquisitivo. Segundo esse funcionário, outra fonte próxima à empresa e reportagem do Washington Post, Musk utilizou os serviços da Orchid na concepção de pelo menos um dos filhos que tem com a executiva de tecnologia Shivon Zilis. (A Orchid, Musk e Zilis não responderam aos pedidos de comentários.)

Conheci Kian Sadeghi, o fundador de 25 anos da Nucleus Genomics, com sede em Nova York, em uma tarde escaldante de julho em seu escritório no SoHo. Magro e enérgico, Sadeghi falava em ritmo acelerado, parando apenas ocasionalmente para perguntar se eu estava acompanhando.

Sadeghi modificou seu primeiro organismo — uma amostra de levedura de cerveja — aos 16 anos. Em 2016, enquanto cursava o ensino médio, fez um curso sobre CRISPR-Cas9 em um laboratório no Brooklyn e se apaixonou pela “bela profundidade” da genética. Poucos anos depois, abandonou a faculdade para construir “um 23andMe melhor”.

Sua empresa tem como alvo o que você poderia chamar de camada de aplicação do PGT-P, aceitando dados de clínicas de fertilização in vitro — e até mesmo dos concorrentes mencionados nesta matéria — e executando sua própria análise computacional.

“Ao contrário de muitas outras empresas de testes, priorizamos o software e o consumidor”, disse Sadeghi. “Não basta atribuir uma pontuação poligênica a alguém. O que isso significa? Como compará-las? Há muitos problemas de design realmente complexos envolvidos.”

Assim como seus concorrentes, o Nucleus calcula seus escores de risco poligênico comparando os dados genéticos de um indivíduo com variantes associadas a características identificadas em grandes estudos de associação genômica ampla (GWAS), fornecendo previsões estatisticamente embasadas.

O Nucleus fornece duas visualizações dos resultados de um paciente: um escore Z, plotado de -4 a 4, que explica o risco de uma determinada característica em relação a uma população com ancestralidade genética semelhante (por exemplo, se o Embrião nº 3 tiver um escore Z de 2,1 para câncer de mama, seu risco é maior que a média), e um escore de risco absoluto, que inclui fatores clínicos relevantes (o Embrião nº 3 tem um risco real mínimo de câncer de mama, visto que é do sexo masculino).

A verdadeira diferença entre a Nucleus e seus concorrentes reside na abrangência do que ela afirma oferecer aos clientes. Em seu site moderno, os futuros pais podem filtrar entre mais de 2.000 possíveis doenças, bem como características que vão da cor dos olhos ao QI. O acesso à plataforma Nucleus Embryo custa US$ 8.999, enquanto a nova oferta IVF+ da empresa — que inclui um ciclo de fertilização in vitro (FIV) com uma clínica parceira, triagem de até 20 embriões e serviços de acompanhamento personalizado durante todo o processo — tem preço inicial de US$ 24.999.

“Talvez você queira que seu bebê tenha olhos azuis em vez de olhos verdes”, disse Kian Sadeghi, fundador da Nucleus, em um evento em junho. “Isso fica a critério dos pais.”

Suas promessas são notavelmente ousadas. A empresa afirma ser capaz de prever a propensão a ansiedade, TDAH, insônia e outros problemas mentais. Diz que você pode ver quais de seus embriões têm maior probabilidade de desenvolver dependência de álcool, quais têm maior probabilidade de serem canhotos e quais podem acabar com acne grave ou alergias sazonais. (No entanto, no momento da redação deste texto, a plataforma de triagem de embriões forneceu a seguinte ressalva: “O DNA não é o destino. A genética pode ser uma ferramenta útil para escolher um embrião, mas não é uma garantia. A pesquisa genética ainda está em seus primórdios e ainda há muito que não sabemos sobre como o DNA molda quem somos.”)

Para quem está acostumado com aplicativos de monitoramento do sono, suplementos de biohacking e monitoramento de glicose, aproveitar as opções oferecidas pela Nucleus pode parecer óbvio. Já para quem aprecia um pouco de acaso na vida, esse nível de controle percebido pode ser, no mínimo, desconcertante.

Sadeghi gosta de enquadrar seus argumentos em termos de escolha pessoal. “Talvez você queira que seu bebê tenha olhos azuis em vez de olhos verdes”, disse ele a um pequeno público no evento de lançamento da Nucleus Embryo em junho. “Isso é uma decisão que cabe aos pais.”

No dia do lançamento oficial, Sadeghi passou horas debatendo alegremente com usuários do X que o acusavam de praticar eugenia. Ele rejeita o termo, preferindo “otimização genética” — embora pareça não ter se incomodado muito com o marketing viral gratuito. “Esta semana, tivemos cinco milhões de impressões no Twitter”, disse ele a uma plateia no evento de lançamento, sob alguns aplausos. (Em um e-mail para a MIT Technology Review, Sadeghi escreveu: “A história da eugenia é uma história de coerção e discriminação por estados e instituições; o que o Nucleus faz é o oposto — previsão genética que capacita os indivíduos a tomar decisões informadas.”)

A Nucleus arrecadou mais de US$ 36 milhões de investidores como Srinivasan, a empresa de capital de risco de Alexis Ohanian, Seven Seven Six, e o Founders Fund de Thiel. (Assim como Siddiqui, Sadeghi recebeu uma bolsa de estudos de Thiel quando abandonou a faculdade; um representante de Thiel não respondeu a um pedido de comentário para esta matéria.) Sadeghi chegou a contratar Nathan Treff, cofundador da Genomic Prediction, que agora é o diretor clínico da Nucleus.

O verdadeiro objetivo de Sadeghi é construir uma plataforma completa para todas as aplicações possíveis da tecnologia de sequenciamento genético, da genealogia à medicina de precisão e à engenharia genética. Ele cita algumas empresas que fornecem esses serviços, com um valor de mercado combinado na casa dos bilhões. “A Nucleus está reunindo todas essas cinco empresas em uma só”, afirma. “Não somos uma empresa de testes de fertilização in vitro. Somos uma plataforma genética completa.”

Nesta primavera, abri caminho a cotoveladas até um bar de hotel lotado no bairro Flatiron, onde mais de cem pessoas se reuniram para ouvir uma palestra intitulada “Como criar SUPERBEBÊS”. O evento fazia parte da Semana de Tecnologia Avançada de Nova York, então eu esperava encontrar alguns profissionais e investidores da área de biotecnologia. Em vez disso, fiquei surpresa ao me deparar com um grupo diversificado e curioso de criativos, engenheiros de software, estudantes e futuros pais — muitos dos quais não tinham nenhum conhecimento prévio sobre o assunto.

O palestrante daquela noite foi Jonathan Anomaly, um filósofo político de voz suave, cujo tom didático denuncia seus anos como professor universitário.

Parte do trabalho acadêmico de Anomaly tem se concentrado no desenvolvimento de teorias do comportamento racional. Na Universidade Duke e na Universidade da Pensilvânia, ele ministrou cursos introdutórios sobre teoria dos jogos, ética e problemas de ação coletiva, bem como bioética, aprofundando-se em questões complexas sobre aborto, vacinas e eutanásia. Mas talvez nenhum tópico o tenha interessado tanto quanto o campo emergente do aprimoramento genético.

Em 2018, em um periódico de bioética, Anomaly publicou um artigo com o título intencionalmente provocativo “Defendendo a Eugenia”. Ele procurou distinguir o que chamou de “eugenia positiva” — métodos não coercitivos que visam aumentar características que “promovem o bem-estar individual e social” — da chamada “eugenia negativa” que conhecemos dos nossos livros de história.

Anomaly gosta de argumentar que a seleção de embriões não é tão diferente de práticas que já consideramos normais. Não acredita que dois primos devam ter filhos? Talvez você seja um eugenista, ele afirma. Seu amigo que escolheu um graduado de Harvard de 1,88m em uma pasta com potenciais doadores de esperma? A lógica é a mesma.

Sua contratação pela Universidade da Pensilvânia em 2019 causou indignação entre alguns estudantes, que o acusaram de “essencialismo racial”. Em 2020, Anomaly deixou a vida acadêmica, lamentando que “as universidades americanas tivessem se tornado uma prisão intelectual”.

Alguns anos depois, a Anomaly juntou-se a uma empresa PGT-P nascente chamada Herasight, que prometia realizar testes de QI.

No final de julho, a empresa saiu oficialmente do modo stealth. Um representante me disse que a maior parte do dinheiro arrecadado até agora vem de investidores-anjo, incluindo Srinivasan, que também investiu na Orchid e na Nucleus. De acordo com o anúncio de lançamento na X, a Herasight analisou “centenas de embriões” para clientes particulares e está começando a oferecer seu primeiro produto para o consumidor final, uma avaliação poligênica que afirma detectar a probabilidade de um embrião desenvolver 17 doenças.

Seus materiais de marketing alardeiam capacidades preditivas 122% melhores que as da Orchid e 193% melhores que as da Genomic Prediction para esse conjunto de doenças. (“A Herasight está comparando seu preditor atual com modelos que publicamos há mais de cinco anos”, respondeu a Genomic Prediction em um comunicado. “Nossa equipe está confiante de que nossos preditores são de classe mundial e não são superados em qualidade por nenhum outro laboratório.”)

A empresa não incluiu comparações com a Nucleus, apontando para a “ausência de validações de desempenho publicadas” por essa empresa e alegando que se tratava de um caso em que “o marketing supera a ciência”. (“A Nucleus é conhecida por sua ciência e marketing de classe mundial, e entendemos por que isso é frustrante para nossos concorrentes”, respondeu um representante da empresa em um comentário.)

A Herasight também enfatizou os novos avanços na “validação intrafamiliar” (garantindo que as pontuações não estejam apenas captando fatores ambientais compartilhados, comparando o desempenho entre pessoas não relacionadas com o desempenho entre irmãos) e na “precisão entre ancestralidades diferentes” (aprimorando a precisão das pontuações para pessoas fora dos grupos de ancestralidade europeia, onde se concentra a maior parte dos dados do biobanco). O representante explicou que os preços variam de acordo com o cliente e o número de embriões testados, mas podem chegar a US$ 50.000.

Quando se trata de características que Jonathan Anomaly acredita serem geneticamente codificadas, a inteligência é apenas a ponta do iceberg. Ele também já falou sobre a hereditariedade da empatia, da violência, da religiosidade e das inclinações políticas.

O teste Herasight avalia apenas uma característica não relacionada a doenças: a inteligência. Para um casal que produz 10 embriões, afirma ser capaz de detectar uma variação de QI de cerca de 15 pontos, do embrião com a pontuação mais baixa ao de maior QI. O representante da empresa afirma que a empresa planeja publicar um relatório técnico detalhado sobre seu preditor de QI futuramente.

No dia do lançamento da Herasight, Musk respondeu ao anúncio da empresa: “Legal”. Enquanto isso, um pesquisador dinamarquês chamado Emil Kirkegaard, cuja pesquisa se concentra principalmente nas diferenças de QI entre grupos raciais, divulgou a empresa para seus quase 45.000 seguidores no X (bem como em um blog no Substack), escrevendo: “A seleção adequada de embriões acaba de chegar”. Kirkegaard, na verdade, apoia o trabalho da Anomaly há anos; ele já publicou sobre ela no X e recomendou seu livro de 2020, ” Creating Future People”, que ele chamou de “um livro de defesa da eugenia biotecnológica”, acrescentando: “Naturalmente, concordo com isso!”.

Quando se trata de características que Anomaly acredita serem geneticamente codificadas, a inteligência — que ele afirmou em sua palestra ser cerca de 75% hereditária — é apenas a ponta do iceberg. Ele também falou sobre a hereditariedade da empatia, do controle dos impulsos, da violência, da passividade, da religiosidade e das inclinações políticas.

Anomaly reconhece que existem limitações quanto aos tipos de previsões relativas que podem ser feitas a partir de um pequeno lote de embriões. Mas ele acredita que estamos apenas no início do que ele gosta de chamar de “revolução reprodutiva”. Em sua palestra, ele mencionou uma tecnologia atualmente em desenvolvimento em algumas startups: a gametogênese in vitro (GIV). A GIV visa criar espermatozoides ou óvulos em laboratório usando células-tronco adultas, geneticamente reprogramadas a partir de células encontradas em uma amostra de pele ou sangue. Em teoria, esse processo poderia permitir que um casal produzisse rapidamente um número praticamente ilimitado de embriões para analisar as características desejadas. Anomaly previu que essa tecnologia poderia estar pronta para uso em humanos dentro de oito anos.

“Duvido que a FDA permita isso imediatamente. É para isso que existem lugares como Próspera”, disse ele, referindo-se à chamada “cidade das startups” em Honduras, onde cientistas e empreendedores podem realizar experimentos médicos livres dos tipos de supervisão regulatória que encontrariam nos EUA.

“Você pode ter uma intuição moral de que isso está errado”, disse Anomaly, “mas quando se descobre que as elites estão fazendo isso em segredo… o efeito dominó vai acontecer muito, muito rapidamente.” A vindoura “corrida armamentista evolutiva”, afirmou ele, “mudará o panorama moral”.

Ele acrescentou que alguns desses membros da elite são seus próprios clientes: “Eu já poderia citar nomes, mas não vou fazê-lo.”

Após a palestra de Anomaly, conversei com um jovem fotógrafo que me disse que esperava fazer um mestrado em teologia. Ele veio ao evento, contou-me, para refletir sobre as implicações éticas de brincar de Deus. “A tecnologia está nos conduzindo a um momento de transição entre o Antigo e o Novo Testamento, em que precisamos decidir quais partes da religião ainda nos servem”, disse ele, com seriedade.

As críticas aos testes poligênicos tendem a se dividir em duas vertentes: ceticismo quanto à eficácia dos testes e preocupações com a ética envolvida. “Por um lado”, diz Turley, do Consórcio de Associações de Genética em Ciências Sociais, “há quem argumente: ‘Isso não vai funcionar de qualquer forma, e o problema é que estamos enganando os pais’. Por outro lado, há quem diga: ‘Ah, isso vai funcionar tão bem que vai levar a enormes desigualdades na sociedade’. É até engraçado ver isso. Às vezes, esses argumentos são feitos pelas mesmas pessoas.”

Uma dessas pessoas é Sasha Gusev, que dirige um laboratório de genética quantitativa no Instituto de Câncer Dana-Farber. Crítico ferrenho do PGT-P para seleção de embriões, ele também participa frequentemente de debates online com perfis de extrema-direita que promovem a ciência racial no X.

Gusev é um dos muitos profissionais em sua área que acreditam que, devido a inúmeros fatores socioeconômicos que podem gerar confusão — por exemplo, nutrição infantil, geografia, redes pessoais e estilos parentais — não faz muito sentido tentar rastrear resultados como o nível de escolaridade até a genética, principalmente não como forma de provar que existe uma base genética para o QI.

Ele acrescenta: “Acho que existe um risco real em caminhar para uma sociedade onde a genética e as ‘dotações genéticas’ são vistas como os fatores determinantes do comportamento das pessoas e como um limite para seus resultados e suas capacidades.”

Gusev acredita que essa tecnologia tem um potencial real em ambientes clínicos, principalmente em populações adultas específicas. Para adultos identificados com altos escores de risco poligênico para câncer e doenças cardiovasculares, ele argumenta que uma combinação de triagem precoce e intervenção pode salvar vidas. No entanto, quando se trata dos testes pré-implante atualmente disponíveis no mercado, ele considera que existem limitações significativas — e poucas medidas regulatórias ou métodos de validação a longo prazo para verificar as promessas feitas pelas empresas. Ele teme que dar muita atenção a esses serviços possa ser contraproducente.

“Essas aplicações imprudentes, com promessas exageradas e, muitas vezes, puramente manipuladoras, na seleção de embriões representam um risco para a credibilidade e a utilidade dessas ferramentas clínicas”, afirma ele.

Muitos pacientes de fertilização in vitro também tiveram reações fortes à publicidade em torno do PGT-P. Quando o New York Times publicou um artigo de opinião sobre a Orchid na primavera, pais furiosos recorreram ao Reddit para expressar sua indignação. Um usuário postou: “Para quem não sabe por que outros tipos de testes são necessários, isso só faz parecer que as pessoas que fazem fertilização in vitro querem criar bebês ‘perfeitos’, quando nós só queremos bebês saudáveis.”

Ainda assim, outros defenderam a necessidade de uma conversa. “Quando tecnologias como essa poderiam mudar a missão de ajudar pessoas inférteis a terem bebês saudáveis ​​para a eugenia?”, questionou um usuário do Reddit. “É uma linha tênue e uma discussão importante a ser feita.”

Alguns defensores do PGT-P, como Kirkegaard e Anomaly, argumentam que as decisões políticas devem levar em conta, de forma mais explícita, as diferenças genéticas. Em uma série de posts em seu blog após a eleição presidencial de 2024, sob o título “Tornar a ciência grandiosa novamente”, Kirkegaard defendeu o fim das leis de ação afirmativa, a legalização da discriminação racial na contratação e a remoção de restrições a conjuntos de dados como o biobanco All of Us do NIH, que impedem pesquisadores como ele de usar os dados para pesquisas sobre raça. Anomaly criticou as políticas de bem-estar social por manipularem a balança para “punir pessoas com QI elevado”.

De fato, a noção de determinismo genético ganhou certa força entre os apoiadores do presidente Donald Trump.

Em outubro de 2024, o próprio Trump fez uma parada de campanha no programa de rádio conservador The Hugh Hewitt Show. Ele começou uma resposta confusa sobre imigração e estatísticas de homicídios. “Um assassino, eu acredito nisso, está nos genes deles. E nós temos muitos genes ruins em nosso país agora”, disse ele ao apresentador.

Gusev acredita que, embora a seleção de embriões não tenha grande impacto nos resultados individuais, a estrutura intelectual defendida por muitos proponentes do PGT-P pode ter consequências sociais graves.

“Se você considerar as diferenças que observamos na sociedade apenas como culturais, então você ajuda as pessoas. Você lhes proporciona melhor escolaridade, melhor nutrição e educação, e elas conseguem se destacar”, diz ele. “Se você considerar essas diferenças como fortemente inatas, pode se iludir pensando que nada pode ser feito e que as pessoas simplesmente nascem como são.”

Por enquanto, não há planos para estudos longitudinais que acompanhem os resultados reais dos seres humanos que essas empresas ajudaram a trazer ao mundo. Harden, o geneticista comportamental da Universidade do Texas em Austin, suspeita que, daqui a 25 anos, os adultos que um dia foram embriões selecionados com base em pontuações de risco poligênico “acabarão com a mesma pergunta que todos nós temos”. Eles olharão para suas vidas e se perguntarão: “O que teria que ter mudado para que fosse diferente?”



Notícias, Segurança

O que vem por aí para o AlphaFold: Uma conversa com um laureado com o Prêmio Nobel do Google DeepMind



Em 2017, recém-formado em seu doutorado em química teórica, John Jumper ouviu rumores de que o Google DeepMind havia abandonado o desenvolvimento de IA para jogos com habilidades sobre-humanas e estava iniciando um projeto secreto para prever as estruturas de proteínas. Ele se candidatou a uma vaga.

Apenas três anos depois, Jumper comemorou uma vitória impressionante que poucos previram. Junto com o CEO Demis Hassabis, ele co-liderou o desenvolvimento de um sistema de IA chamado AlphaFold 2, capaz de prever as estruturas de proteínas com precisão de até um átomo, igualando a acurácia de técnicas meticulosas usadas em laboratório e fazendo isso muitas vezes mais rápido — apresentando resultados em horas em vez de meses.

O AlphaFold 2 resolveu um grande desafio de 50 anos na biologia. “Essa é a razão pela qual fundei a DeepMind”, Hassabis me disse alguns anos atrás. “Na verdade, é por isso que dediquei toda a minha carreira à IA.” Em 2024, Jumper e Hassabis dividiram o Prêmio Nobel de Química .

Há cinco anos, nesta mesma semana, a estreia do AlphaFold 2 surpreendeu os cientistas. Agora que a euforia passou, qual foi o verdadeiro impacto do AlphaFold? Como os cientistas o estão utilizando? E o que vem por aí? Conversei com Jumper (e com alguns outros cientistas) para descobrir.

“Foram cinco anos extraordinários”, diz Jumper, rindo: “É difícil lembrar de uma época em que eu não conhecia um número tão grande de jornalistas.”

O AlphaFold 2 foi seguido pelo AlphaFold Multimer, capaz de prever estruturas contendo mais de uma proteína, e depois pelo AlphaFold 3 , a versão mais rápida até então. O Google DeepMind também disponibilizou o AlphaFold para o UniProt , um vasto banco de dados de proteínas usado e atualizado por milhões de pesquisadores em todo o mundo. Ele já previu as estruturas de cerca de 200 milhões de proteínas , quase todas as conhecidas pela ciência.

Apesar do sucesso, Jumper mantém-se modesto quanto às conquistas do AlphaFold. “Isso não significa que tenhamos certeza de tudo o que está lá dentro”, afirma. “É um banco de dados de previsões, e isso vem com todas as ressalvas inerentes a previsões.”

Um problema difícil
As proteínas são as máquinas biológicas que fazem os seres vivos funcionarem. Elas formam músculos, chifres e penas; transportam oxigênio pelo corpo e transmitem mensagens entre as células; ativam neurônios, digerem alimentos, fortalecem o sistema imunológico e muito mais. Mas entender exatamente o que uma proteína faz (e qual o seu papel em diversas doenças ou tratamentos) envolve descobrir sua estrutura — e isso é difícil.

As proteínas são formadas por cadeias de aminoácidos que, por forças químicas, se entrelaçam em nós complexos. Uma cadeia não entrelaçada oferece poucas pistas sobre a estrutura que irá formar. Em teoria, a maioria das proteínas poderia assumir um número astronômico de formas possíveis. O desafio é prever qual delas está correta.

Jumper e sua equipe construíram o AlphaFold 2 usando um tipo de rede neural chamada Transformer, a mesma tecnologia que sustenta grandes modelos de linguagem. Os Transformers são muito bons em prestar atenção a partes específicas de um quebra-cabeça maior.

Mas Jumper atribui grande parte do sucesso à criação de um modelo protótipo que pudesse ser testado rapidamente. “Conseguimos um sistema que dava respostas erradas com uma velocidade incrível”, diz ele. “Isso facilitou muito o início da experimentação com as ideias que testamos.”

Eles carregaram a rede neural com o máximo de informações possível sobre estruturas de proteínas, como por exemplo, como proteínas de certas espécies desenvolveram formas semelhantes. E funcionou ainda melhor do que esperavam. “Tínhamos certeza de que tínhamos feito uma descoberta revolucionária”, diz Jumper. “Tínhamos certeza de que se tratava de um avanço incrível em termos de ideias.”

O que ele não previu foi que os pesquisadores baixariam seu software e começariam a usá-lo imediatamente para tantas coisas diferentes. Normalmente, é o que tem o verdadeiro impacto algumas iterações depois, quando os problemas iniciais já foram resolvidos, diz ele: “Fiquei surpreso com a responsabilidade com que os cientistas o usaram, em termos de interpretação e aplicação prática, confiando nele na medida certa, na minha opinião, nem demais nem de menos.”

Algum projeto em particular se destaca?

Ciência das abelhas
Jumper menciona um grupo de pesquisa que usa AlphaFold para estudar a resistência a doenças em abelhas. “Eles queriam entender essa proteína específica enquanto investigam problemas como o colapso das colônias”, diz ele. “Eu nunca teria dito: ‘Sabe, é claro que AlphaFold será usado na ciência das abelhas.'”

Ele também destaca alguns exemplos do que chama de usos não convencionais do AlphaFold — “no sentido de que não havia garantia de que funcionaria” — onde a capacidade de prever estruturas de proteínas abriu novas técnicas de pesquisa. “O primeiro exemplo, muito obviamente, são os avanços no design de proteínas”, diz ele. “David Baker e outros exploraram essa tecnologia ao máximo.”

Baker, um biólogo computacional da Universidade de Washington, foi um dos vencedores do Prêmio Nobel de Química do ano passado , juntamente com Jumper e Hassabis, por seu trabalho na criação de proteínas sintéticas para desempenhar tarefas específicas — como tratar doenças ou decompor plásticos — melhor do que as proteínas naturais.

Baker e seus colegas desenvolveram sua própria ferramenta baseada no AlphaFold, chamada RoseTTAFold. Mas eles também experimentaram o AlphaFold Multimer para prever quais de seus projetos de potenciais proteínas sintéticas funcionarão.

“Basicamente, se o AlphaFold concordar com a estrutura que você estava tentando projetar, você a cria; caso contrário, se o AlphaFold disser ‘Não sei’, você não a cria. Só isso já representou uma enorme melhoria.” Segundo Jumper, isso pode tornar o processo de projeto 10 vezes mais rápido.

Outro uso não convencional que Jumper destaca: transformar o AlphaFold em uma espécie de mecanismo de busca. Ele menciona dois grupos de pesquisa distintos que estavam tentando entender exatamente como os espermatozoides humanos se ligavam aos óvulos durante a fertilização. Eles conheciam uma das proteínas envolvidas, mas não a outra, diz ele: “Então, eles pegaram uma proteína conhecida do óvulo e analisaram todas as 2.000 proteínas da superfície dos espermatozoides humanos, e encontraram uma que o AlphaFold tinha certeza que se ligava ao óvulo”. Eles então conseguiram confirmar isso em laboratório.

“Essa ideia de que você pode usar o AlphaFold para fazer algo que não conseguia fazer antes — você nunca faria 2.000 estruturas procurando por uma única resposta”, diz ele. “Acho esse tipo de coisa realmente extraordinária.”

Cinco anos depois
Quando o AlphaFold 2 foi lançado, perguntei a alguns dos primeiros usuários o que eles achavam. As avaliações foram boas, mas a tecnologia era muito nova para saber ao certo qual seria seu impacto a longo prazo. Entrei em contato com uma dessas pessoas para saber sua opinião cinco anos depois.

Kliment Verba é um biólogo molecular que dirige um laboratório na Universidade da Califórnia, em São Francisco. “É uma tecnologia incrivelmente útil, sem dúvida”, diz ele. “Usamos todos os dias, o tempo todo.”

Mas está longe de ser perfeito. Muitos cientistas usam o AlphaFold para estudar patógenos ou desenvolver medicamentos. Isso envolve analisar as interações entre múltiplas proteínas ou entre proteínas e moléculas ainda menores no organismo. No entanto, sabe-se que o AlphaFold é menos preciso em fazer previsões sobre múltiplas proteínas ou suas interações ao longo do tempo.

Verba diz que ele e seus colegas usam o AlphaFold há tempo suficiente para se acostumarem com suas limitações. “Há muitos casos em que você recebe uma previsão e fica meio sem entender”, diz ele. “Isso é real ou não? Não é totalmente claro — é meio que uma situação ambígua.”

“É mais ou menos a mesma coisa que o ChatGPT”, acrescenta. “Sabe, ele vai te enganar com a mesma convicção com que daria uma resposta verdadeira.”

Ainda assim, a equipe de Verba usa o AlphaFold (tanto a versão 2 quanto a 3, pois cada uma tem suas vantagens, segundo ele) para executar versões virtuais de seus experimentos antes de realizá-los em laboratório. Com os resultados do AlphaFold, eles conseguem definir melhor o foco de um experimento — ou decidir que não vale a pena fazê-lo.

Ele afirma que isso pode realmente economizar tempo: “Não substituiu nenhum experimento, mas os aprimorou bastante.”

Nova onda
O AlphaFold foi projetado para ser usado para uma variedade de propósitos. Agora, diversas startups e laboratórios universitários estão se baseando em seu sucesso para desenvolver uma nova geração de ferramentas mais voltadas para a descoberta de medicamentos. Este ano, uma colaboração entre pesquisadores do MIT e a empresa de IA para medicamentos Recursion produziu um modelo chamado Boltz-2, que prevê não apenas a estrutura de proteínas, mas também a afinidade de moléculas de medicamentos em potencial por seus alvos .

No mês passado, a startup Genesis Molecular AI lançou outro modelo de previsão de estrutura chamado Pearl , que a empresa afirma ser mais preciso que o AlphaFold 3 para determinadas consultas importantes para o desenvolvimento de medicamentos. O Pearl é interativo, permitindo que os desenvolvedores de medicamentos forneçam ao modelo quaisquer dados adicionais que possuam para orientar suas previsões.

O AlphaFold representou um grande avanço, mas ainda há muito a ser feito, afirma Evan Feinberg, CEO da Genesis Molecular AI: “Continuamos inovando fundamentalmente, apenas com um ponto de partida melhor do que antes.”

A Genesis Molecular AI está reduzindo as margens de erro de menos de dois angstroms, o padrão de facto da indústria estabelecido pela AlphaFold, para menos de um angstrom — um décimo milionésimo de milímetro, ou a largura de um único átomo de hidrogênio.

“Pequenos erros podem ser catastróficos para prever a eficácia com que um medicamento se ligará ao seu alvo”, afirma Michael LeVine, vice-presidente de modelagem e simulação da empresa. Isso ocorre porque as forças químicas que interagem a um angstrom podem deixar de interagir a dois. “A interação pode mudar de ‘Elas nunca vão interagir’ para ‘Elas vão interagir’”, explica.

Com tanta atividade nessa área, quando podemos esperar que novos tipos de medicamentos cheguem ao mercado? Jumper é pragmático. A previsão da estrutura de proteínas é apenas uma etapa entre muitas, afirma: “Esse não era o único problema da biologia. Não é como se estivéssemos a um passo de curar qualquer doença com apenas uma estrutura de proteína.”

Pense da seguinte maneira, diz ele. Descobrir a estrutura de uma proteína poderia ter custado US$ 100.000 em laboratório: “Se estivéssemos a apenas cem mil dólares de fazer algo, já teria sido feito.”

Ao mesmo tempo, os pesquisadores estão buscando maneiras de aproveitar ao máximo essa tecnologia, diz Jumper: “Estamos tentando descobrir como fazer da previsão de estrutura uma parte ainda maior da solução do problema, porque temos uma ferramenta poderosa para combatê-lo.”

Em outras palavras, transformar tudo em pregos? “Sim, vamos transformar tudo em pregos”, diz ele. “Como podemos fazer com que essa coisa que produzimos um milhão de vezes mais rápido se torne uma parte maior do nosso processo?”

Qual o próximo passo?
Qual será o próximo passo de Jumper? Ele quer fundir o poder profundo, porém específico, do AlphaFold com o amplo alcance dos LLMs.

“Temos máquinas que conseguem ler ciência. Elas conseguem fazer raciocínio científico”, diz ele. “E podemos construir sistemas incríveis, quase sobre-humanos, para a previsão da estrutura de proteínas. Como fazer com que essas duas tecnologias funcionem juntas?”

Isso me faz pensar em um sistema chamado AlphaEvolve , que está sendo desenvolvido por outra equipe do Google DeepMind. O AlphaEvolve usa um modelo de lógica latente (LLM) para gerar possíveis soluções para um problema e um segundo modelo para verificá-las, filtrando as soluções ineficazes. Pesquisadores já usaram o AlphaEvolve para fazer diversas descobertas práticas em matemática e ciência da computação.

É isso que Jumper tem em mente? “Não vou falar muito sobre os métodos, mas ficarei surpreso se não virmos um impacto cada vez maior do LLM na ciência”, diz ele. “Acho que essa é a questão em aberto mais interessante sobre a qual não direi quase nada. É tudo especulação, claro.”

Jumper tinha 39 anos quando ganhou o Prêmio Nobel. O que vem a seguir para ele?

“Isso me preocupa”, diz ele. “Acredito que sou o laureado mais jovem em química em 75 anos.”

Ele acrescenta: “Estou mais ou menos na metade da minha carreira. Acho que minha abordagem é tentar fazer coisas menores, pequenas ideias que vou desenvolvendo aos poucos. A próxima coisa que eu anunciar não precisa ser, sabe, minha segunda tentativa de ganhar um Nobel. Acho que essa é a armadilha.”



Inovação, Segurança

Como a IA e a Wikipédia levaram línguas vulneráveis ​​a uma espiral de destruição



Quando Kenneth Wehr começou a gerenciar a versão em groenlandês da Wikipédia, há quatro anos, seu primeiro ato foi apagar quase tudo. Era preciso eliminar tudo, pensou ele, para que a Wikipédia tivesse alguma chance de sobreviver.

Wehr, de 26 anos, não é da Groenlândia — ele cresceu na Alemanha —, mas ficou obcecado pela ilha, um território autônomo dinamarquês, depois de visitá-la na adolescência. Ele passou anos escrevendo artigos obscuros na Wikipédia em sua língua nativa sobre praticamente tudo relacionado à ilha. Ele chegou a se mudar para Copenhague para estudar groenlandês, um idioma falado por cerca de 57.000 pessoas, em sua maioria indígenas inuítes, espalhadas por dezenas de aldeias remotas no Ártico.

A edição em groenlandês foi adicionada à Wikipédia por volta de 2003, poucos anos após o lançamento da versão em inglês. Quando Wehr assumiu a direção, quase 20 anos depois, centenas de wikipedistas já haviam contribuído e escrito coletivamente cerca de 1.500 artigos, totalizando dezenas de milhares de palavras. Parecia uma demonstração impressionante da eficácia da abordagem colaborativa que tornou a Wikipédia a principal fonte de informação online, comprovando que ela poderia funcionar até mesmo nos lugares mais improváveis.

Havia apenas um problema: a Wikipédia da Groenlândia era uma miragem.

Praticamente todos os artigos haviam sido publicados por pessoas que não falavam o idioma. Wehr, que agora leciona groenlandês na Dinamarca, especula que talvez apenas um ou dois groenlandeses tenham contribuído. Mas o que mais o preocupava era outra coisa: com o tempo, ele percebeu que um número crescente de artigos parecia ter sido copiado e colado na Wikipédia por pessoas que usavam tradutores automáticos. Eles estavam repletos de erros elementares — de gafes gramaticais a palavras sem sentido, até imprecisões mais significativas, como uma entrada que afirmava que o Canadá tinha apenas 41 habitantes. Outras páginas continham, às vezes, sequências aleatórias de letras geradas por máquinas que não conseguiam encontrar palavras adequadas em groenlandês para se expressarem.

“Pode ter parecido algo da Groenlândia para [os autores], mas eles não tinham como saber”, reclama Wehr.

“As frases não fariam sentido nenhum, ou teriam erros óbvios”, acrescenta. “Os tradutores de IA são muito ruins em groenlandês.”

O que Wehr descreve não é exclusivo da edição da Groenlândia.

A Wikipédia é o projeto multilíngue mais ambicioso depois da Bíblia: existem edições em mais de 340 idiomas, e outros 400, ainda mais obscuros, estão sendo desenvolvidos e testados. Muitas dessas edições menores foram inundadas com conteúdo traduzido automaticamente, à medida que a inteligência artificial se tornou cada vez mais acessível. Voluntários que trabalham em quatro idiomas africanos, por exemplo, estimaram à MIT Technology Review que entre 40% e 60% dos artigos em suas respectivas edições da Wikipédia eram traduções automáticas não corrigidas. E, após auditar a edição da Wikipédia em inuktitut, um idioma indígena próximo ao groenlandês falado no Canadá, a MIT Technology Review estima que mais de dois terços das páginas com mais de algumas frases apresentam trechos criados dessa forma.

Isso está começando a causar um problema grave . Sistemas de IA, do Google Tradutor ao ChatGPT, aprendem a “falar” novos idiomas coletando enormes quantidades de texto da internet. A Wikipédia é, por vezes, a maior fonte de dados linguísticos online para idiomas com poucos falantes — portanto, quaisquer erros nessas páginas, gramaticais ou de qualquer outra natureza, podem contaminar as fontes de onde a IA deve extrair informações. Isso pode tornar a tradução desses idiomas pelos modelos particularmente propensa a erros, o que cria uma espécie de ciclo vicioso linguístico, à medida que as pessoas continuam adicionando cada vez mais páginas da Wikipédia mal traduzidas usando essas ferramentas, e os modelos de IA continuam sendo treinados com páginas mal traduzidas. É um problema complexo, mas se resume a um conceito simples: lixo entra, lixo sai .

“Esses modelos são construídos com base em dados brutos”, diz Kevin Scannell, ex-professor de ciência da computação da Universidade de Saint Louis, que agora desenvolve softwares específicos para línguas ameaçadas de extinção. “Eles tentam aprender tudo sobre uma língua do zero. Não há nenhuma outra entrada. Não há livros de gramática. Não há dicionários. Não há nada além do texto inserido.”

Não existem dados perfeitos sobre a dimensão deste problema, principalmente porque muitos dados de treinamento de IA são mantidos em sigilo e a área continua a evoluir rapidamente. Mas, em 2020, estimava-se que a Wikipédia constituía mais da metade dos dados de treinamento utilizados em modelos de IA para traduzir alguns idiomas falados por milhões de pessoas na África, incluindo malgaxe, iorubá e shona. Em 2022, uma equipe de pesquisa alemã que investigou quais dados poderiam ser obtidos por meio de raspagem online descobriu que a Wikipédia era a única fonte de dados linguísticos online de fácil acesso para 27 idiomas com poucos recursos.

Isso pode ter repercussões significativas em casos onde a Wikipédia é mal escrita — potencialmente empurrando os idiomas mais vulneráveis ​​da Terra para o abismo, à medida que as gerações futuras começam a se afastar deles.

“A Wikipédia será refletida nos modelos de IA para esses idiomas”, afirma Trond Trosterud, linguista computacional da Universidade de Tromsø, na Noruega, que há anos vem alertando sobre os potenciais danos causados ​​por edições mal administradas da Wikipédia. “Acho difícil imaginar que isso não terá consequências. E, claro, quanto mais dominante a posição da Wikipédia, pior será.”

Use com responsabilidade.
A automação está integrada à Wikipédia desde os seus primórdios. Bots mantêm a plataforma operacional: eles reparam links quebrados, corrigem formatação incorreta e até mesmo erros ortográficos. Essas tarefas repetitivas e rotineiras podem ser automatizadas com relativa facilidade. Existe até mesmo um exército de bots que se movimentam constantemente, gerando artigos curtos sobre rios, cidades ou animais, simplesmente inserindo seus nomes em frases padronizadas. De modo geral, eles têm contribuído para o aprimoramento da plataforma.

Mas a IA é diferente. Qualquer pessoa pode usá-la para causar danos massivos com apenas alguns cliques.

A Wikipédia lidou com o início da era da IA ​​melhor do que muitos outros sites. Não foi inundada por bots de IA ou desinformação, como aconteceu com as redes sociais. Em grande parte, preserva a inocência que caracterizou os primórdios da internet. A Wikipédia é aberta e gratuita para qualquer pessoa usar, editar e extrair conteúdo, e é administrada pela própria comunidade que serve. É transparente e fácil de usar. Mas plataformas administradas pela comunidade dependem do tamanho de suas comunidades para sobreviver. O inglês triunfou, enquanto o groenlandês afundou.

“Precisamos de bons wikipedistas. Isso é algo que as pessoas consideram garantido. Não é mágica”, diz Amir Aharoni, membro voluntário do Comitê de Língua, que supervisiona as solicitações para abrir ou fechar edições da Wikipédia. “Se você usar a tradução automática de forma responsável, ela pode ser eficiente e útil. Infelizmente, não podemos confiar que todas as pessoas a usem de forma responsável.”

Trosterud estudou o comportamento de usuários em pequenas edições da Wikipédia e afirma que a IA empoderou um subconjunto que ele chama de “sequestradores da Wikipédia”. Esses usuários podem variar bastante — desde adolescentes ingênuos criando páginas sobre suas cidades natais ou seus YouTubers favoritos até wikipedistas bem-intencionados que pensam que, ao criar artigos em línguas minoritárias, estão de alguma forma “ajudando” essas comunidades.

“O problema deles hoje em dia é que estão armados com o Google Tradutor”, diz Trosterud, acrescentando que isso lhes permite produzir conteúdo muito mais longo e com aparência mais plausível do que antes: “Antes, eles estavam armados apenas com dicionários”.

Isso efetivamente industrializou os atos de destruição — que afetam principalmente as línguas vulneráveis, já que as traduções automáticas costumam ser muito menos confiáveis ​​para elas. Pode haver muitas razões diferentes para isso, mas uma parte significativa do problema é a quantidade relativamente pequena de textos originais disponíveis online. E, às vezes, os modelos têm dificuldade em identificar um idioma porque ele é semelhante a outros, ou porque alguns, incluindo o groenlandês e a maioria das línguas indígenas americanas, têm estruturas que os tornam pouco adequados ao funcionamento da maioria dos sistemas de tradução automática. (Wehr observa que, em groenlandês, a maioria das palavras é aglutinativa, ou seja, é formada pela adição de prefixos e sufixos a radicais. Como resultado, muitas palavras são extremamente específicas ao contexto e podem expressar ideias que, em outros idiomas, exigiriam uma frase completa.)

Uma pesquisa realizada pelo Google antes de uma grande expansão do Google Tradutor, lançada há três anos, constatou que os sistemas de tradução para idiomas com menos recursos eram, em geral, de qualidade inferior aos sistemas para idiomas com mais recursos. Os pesquisadores descobriram, por exemplo, que seu modelo frequentemente traduzia incorretamente substantivos básicos entre idiomas, incluindo nomes de animais e cores. (Em uma declaração à MIT Technology Review , o Google afirmou estar “comprometido em atender a um alto padrão de qualidade para todos os 249 idiomas” que oferece suporte, “testando e aprimorando rigorosamente seus sistemas, principalmente para idiomas que podem ter recursos textuais públicos limitados na web”.)

A própria Wikipédia oferece uma ferramenta de edição integrada chamada Content Translate, que permite aos usuários traduzir artigos automaticamente de um idioma para outro — a ideia é economizar tempo, preservando as referências e a formatação complexa dos originais. Mas ela depende de sistemas externos de tradução automática, então sofre dos mesmos problemas que outros tradutores automáticos — um problema que a Fundação Wikimedia afirma ser difícil de resolver. Cabe à comunidade de cada edição decidir se essa ferramenta é permitida, e algumas optaram por não adotá-la. (Vale ressaltar que a Wikipédia em inglês praticamente proibiu seu uso, alegando que cerca de 95% dos artigos criados com o Content Translate não atendiam a um padrão aceitável sem um trabalho adicional significativo.) Mas pelo menos é fácil saber quando o programa foi usado; o Content Translate adiciona uma etiqueta no sistema da Wikipédia.

Outros programas de IA podem ser mais difíceis de monitorar. Ainda assim, muitos editores da Wikipédia com quem conversei disseram que, depois que seus idiomas foram adicionados às principais ferramentas de tradução online, notaram um aumento correspondente na frequência com que páginas mal traduzidas, provavelmente por máquinas, eram criadas.

Alguns wikipedistas que usam IA para traduzir conteúdo ocasionalmente admitem que não falam os idiomas de destino. Eles podem se ver como fornecedores de artigos em versão preliminar para comunidades menores, que podem então ser revisados ​​pelos falantes nativos — essencialmente seguindo o mesmo modelo que funcionou bem para edições mais ativas da Wikipédia.

O Google Tradutor, por exemplo, diz que a palavra em fulfulde para janeiro significa junho, enquanto o ChatGPT diz que é agosto ou setembro. Os programas também sugerem que a palavra em fulfulde para “colheita” significa “febre” ou “bem-estar”, entre outras possibilidades.
Mas, uma vez produzidas páginas repletas de erros em línguas minoritárias, geralmente não há um exército de pessoas com conhecimento dessas línguas prontas para corrigi-las. Há poucos leitores dessas edições e, às vezes, nenhum editor fixo.

Yuet Man Lee, um professor canadense na casa dos 20 anos, conta que usou uma combinação do Google Tradutor e do ChatGPT para traduzir alguns artigos que havia escrito para a Wikipédia em inglês para o inuktitut, pensando que seria uma boa ideia contribuir e ajudar uma comunidade menor da Wikipédia. Ele diz que adicionou uma nota a um dos artigos explicando que era apenas uma tradução aproximada. “Não achei que alguém fosse notar [o artigo]”, explica. “Se você publica algo nas Wikipédias menores, na maioria das vezes ninguém vê.”

Mas, ao mesmo tempo, ele diz que ainda pensava que “alguém poderia ver e corrigir” — acrescentando que se perguntou se a tradução para o inuktitut gerada pelos sistemas de IA estava gramaticalmente correta. Ninguém mexeu no artigo desde que ele o criou.

Lee, professor de ciências sociais em Vancouver e que começou a editar verbetes na Wikipédia em inglês há uma década, afirma que usuários familiarizados com Wikipédias mais ativas podem ser vítimas dessa mentalidade, que ele chama de “arrogância da Wikipédia maior”: ao tentarem contribuir para edições menores da Wikipédia, presumem que outros virão corrigir seus erros. Às vezes, isso pode funcionar. Lee conta que já havia contribuído com vários artigos para a Wikipédia em tártaro, um idioma falado por milhões de pessoas, principalmente na Rússia, e pelo menos um deles foi corrigido. Mas a Wikipédia em inuktitut é, em comparação, um “deserto”.

Ele enfatiza que suas intenções eram boas: queria adicionar mais artigos a uma Wikipédia indígena canadense. “Agora estou pensando que talvez tenha sido uma má ideia. Não considerei que poderia estar contribuindo para um ciclo vicioso”, diz ele. “Tratava-se de tentar publicar conteúdo, por curiosidade e diversão, sem pensar devidamente nas consequências.”

“Totalmente, completamente sem futuro”
A Wikipédia é um projeto movido por um otimismo ingênuo. Editar pode ser uma tarefa ingrata, envolvendo semanas de discussões com pessoas anônimas e sem rosto, mas os dedicados investem horas de trabalho não remunerado por um compromisso com uma causa maior. É esse compromisso que motiva muitos dos editores regulares de línguas minoritárias com quem conversei. Todos eles temiam o que aconteceria se conteúdos irrelevantes continuassem a aparecer em suas páginas.

Abdulkadir Abdulkadir, um planejador agrícola de 26 anos que conversou comigo por telefone, com a voz chiada, de uma estrada movimentada no norte da Nigéria, disse que passa três horas por dia digitando informações em fulfulde, sua língua nativa, usada principalmente por pastores e agricultores do Sahel. “Mas o trabalho é demais”, disse ele.

Abdulkadir vê uma necessidade urgente de que a Wikipédia em fulfulde funcione corretamente. Ele a tem sugerido como um dos poucos recursos online para agricultores em aldeias remotas, oferecendo potencialmente informações sobre quais sementes ou culturas seriam mais adequadas para seus campos, em um idioma que eles possam entender. Se você lhes der um artigo traduzido automaticamente, Abdulkadir me disse, isso poderá “facilmente prejudicá-los”, já que a informação provavelmente não será traduzida corretamente para o fulfulde.

O Google Tradutor, por exemplo, diz que a palavra em fulfulde para janeiro significa junho, enquanto o ChatGPT diz que é agosto ou setembro. Os programas também sugerem que a palavra em fulfulde para “colheita” significa “febre” ou “bem-estar”, entre outras possibilidades.

Abdulkadir disse que recentemente foi obrigado a corrigir um artigo sobre feijão-fradinho, uma cultura comercial fundamental em grande parte da África, depois de descobrir que o texto era praticamente ilegível.

Se alguém quiser criar páginas na Wikipédia em fulfulde, Abdulkadir disse que elas devem ser traduzidas manualmente. Caso contrário, “quem ler seus artigos não conseguirá adquirir nem mesmo o conhecimento básico”, alerta ele aos wikipedistas. Mesmo assim, ele estima que cerca de 60% dos artigos ainda sejam traduções automáticas não corrigidas. Abdulkadir me disse que, a menos que algo importante mude na forma como os sistemas de IA aprendem e são implementados, o futuro do fulfulde é sombrio. “Vai ser terrível, sinceramente”, disse ele. “Totalmente, completamente sem futuro.”

Do outro lado do país, longe de Abdulkadir, Lucy Iwuala contribui para a Wikipédia em igbo, um idioma falado por milhões de pessoas no sudeste da Nigéria. “O estrago já está feito”, disse-me ela, abrindo os dois artigos mais recentes. Ambos haviam sido traduzidos automaticamente pela ferramenta de tradução automática da Wikipédia e continham tantos erros que, segundo ela, continuar a leitura lhe daria dor de cabeça. “Há alguns termos que nem sequer foram traduzidos. Ainda estão em inglês”, apontou. Ela reconheceu o nome de usuário que criou as páginas como um infrator contumaz. “Este inclui até letras que não existem no idioma igbo”, disse ela.

Iwuala começou a contribuir regularmente para a Wikipédia há três anos, preocupada com o fato de o igbo estar sendo substituído pelo inglês. Essa é uma preocupação comum a muitos que participam ativamente de edições menores da Wikipédia. “Esta é a minha cultura. É quem eu sou”, disse-me ela. “Essa é a essência de tudo: garantir que você não seja apagado.”

Iwuala, que agora trabalha como tradutora profissional entre inglês e igbo, disse que os usuários que causam mais danos são inexperientes e veem as traduções por IA como uma forma de aumentar rapidamente a visibilidade da Wikipédia em igbo. Ela frequentemente se vê obrigada a explicar em maratonas de edição online que organiza, ou por e-mail para diversos editores propensos a erros, que os resultados podem ser exatamente o oposto, afastando os usuários: “Vocês ficarão desanimados e não vão mais querer visitar este site. Simplesmente o abandonarão e voltarão para a Wikipédia em inglês.”

Esses temores são compartilhados por Noah Ha’alilio Solomon, professor assistente de língua havaiana na Universidade do Havaí. Ele relata que cerca de 35% das palavras em algumas páginas da Wikipédia em havaiano são incompreensíveis. “Se esse for o havaiano que vai existir online, então fará mais mal do que bem”, afirma.

O havaiano, que esteve à beira da extinção há algumas décadas, vem passando por um esforço de recuperação liderado por ativistas e acadêmicos indígenas. Ver um havaiano tão mal escrito em uma plataforma tão amplamente utilizada como a Wikipédia incomoda Ha’alilio Solomon.

“É doloroso, porque nos lembra de todas as vezes em que nossa cultura e língua foram apropriadas indevidamente”, diz ele. “Temos lutado com unhas e dentes em uma árdua batalha pela revitalização da língua. Não há nada de fácil nisso, e isso pode criar obstáculos adicionais. As pessoas vão achar que esta é uma representação fiel da língua havaiana.”

As consequências de todos esses erros na Wikipédia podem se tornar evidentes rapidamente. Tradutores de IA, que sem dúvida incorporaram essas páginas em seus dados de treinamento, estão agora auxiliando na produção, por exemplo, de livros gerados por IA repletos de erros, destinados a aprendizes de línguas tão diversas quanto o inuktitut e o cree , línguas indígenas faladas no Canadá, e o manx, uma pequena língua celta falada na Ilha de Man. Muitos desses livros têm aparecido à venda na Amazon. “Era um completo absurdo”, diz Richard Compton, linguista da Universidade do Quebec em Montreal, sobre um volume que ele analisou e que se apresentava como um guia introdutório de frases para o inuktitut.

Em vez de tornar as línguas minoritárias mais acessíveis, a IA está criando um campo minado cada vez maior para estudantes e falantes dessas línguas. “É uma afronta”, diz Compton. Ele teme que as gerações mais jovens no Canadá, na esperança de aprender línguas em comunidades que lutaram bravamente contra a discriminação para transmitir sua herança cultural, possam recorrer a ferramentas online como o ChatGPT ou guias de conversação da Amazon e simplesmente piorar a situação. “É uma fraude”, afirma.

Uma corrida contra o tempo
Segundo a UNESCO, uma língua é declarada extinta a cada duas semanas. Mas se a Fundação Wikimedia, que administra a Wikipédia, tem alguma obrigação em relação às línguas usadas em sua plataforma é uma questão em aberto. Quando conversei com Runa Bhattacharjee, diretora sênior da fundação, ela disse que cabe às comunidades individuais decidirem qual conteúdo desejam que exista em sua Wikipédia. “Em última análise, a responsabilidade recai sobre a comunidade para garantir que não haja vandalismo ou atividades indesejadas, seja por meio de tradução automática ou outros meios”, afirmou. Bhattacharjee acrescentou que, geralmente, as edições só são consideradas para fechamento se houver uma reclamação específica a respeito delas.

Mas se não houver uma comunidade ativa, como um problema pode ser corrigido ou mesmo uma reclamação pode ser feita?

Bhattacharjee explicou que a Fundação Wikimedia vê seu papel nesses casos como o de manter a plataforma Wikipédia caso alguém queira revitalizá-la: “É o espaço que oferecemos para que eles cresçam e se desenvolvam. É aí que estamos.”

O sami inari, falado em uma única comunidade remota no norte da Finlândia, é um exemplo perfeito de como as pessoas podem tirar proveito da Wikipédia. Há quatro décadas, o idioma estava à beira da extinção; havia apenas quatro crianças que o falavam. Seus pais criaram a Associação da Língua Saami Inari em uma última tentativa de mantê-lo vivo. Os esforços deram certo. Agora, existem várias centenas de falantes, escolas que usam o sami inari como meio de instrução e 6.400 artigos na Wikipédia nesse idioma, cada um revisado por um falante nativo.

Esse sucesso destaca como a Wikipédia pode, de fato, fornecer a pequenas e determinadas comunidades um veículo único para promover a preservação de seus idiomas. “Não nos importamos com a quantidade. Nos importamos com a qualidade”, afirma Fabrizio Brecciaroli, membro da Associação da Língua Inari Saami. “Planejamos usar a Wikipédia como um repositório para a língua escrita. Precisamos fornecer ferramentas que possam ser usadas pelas gerações mais jovens. É importante que elas consigam usar o Inari Saami digitalmente.”

O sucesso foi tamanho que a Wikipédia foi integrada ao currículo das escolas de língua sami de Inari, acrescenta Brecciaroli. Ele recebe telefonemas de professores pedindo que ele escreva páginas simples sobre diversos assuntos, desde tornados até o folclore sami. A Wikipédia até se tornou uma ferramenta para introduzir palavras no sami de Inari. “Precisamos inventar novas palavras o tempo todo”, diz Brecciaroli. “Os jovens precisam delas para falar sobre esportes, política e videogames. Se não sabem como dizer algo, agora consultam a Wikipédia.”

A Wikipédia é um experimento intelectual monumental. O que está acontecendo com o inari sami sugere que, com o máximo cuidado, ela pode funcionar em línguas menos numerosas. “O objetivo final é garantir que o inari sami sobreviva”, diz Brecciaroli. “Talvez seja uma coisa boa que não haja um Google Tradutor em inari sami.”

Isso pode ser verdade — embora modelos de linguagem complexos como o ChatGPT possam ser usados ​​para traduzir frases para idiomas que as ferramentas de tradução automática mais tradicionais não oferecem. Brecciaroli me disse que o ChatGPT não é muito bom em sami inari, mas que a qualidade varia significativamente dependendo do que você pede para ele fazer; se você fizer uma pergunta no idioma, a resposta estará repleta de palavras do finlandês e até mesmo palavras inventadas. Mas se você fizer uma pergunta em inglês, finlandês ou italiano e depois pedir para ele responder em sami inari, o desempenho será melhor.

Diante disso tudo, criar o máximo de conteúdo online de alta qualidade possível se torna uma corrida contra o tempo. “O ChatGPT só precisa de muitas palavras”, diz Brecciaroli. “Se continuarmos inserindo material de qualidade, mais cedo ou mais tarde, conseguiremos produzir algo. Essa é a esperança.” Essa é uma ideia apoiada por diversos linguistas com quem conversei — a de que talvez seja possível acabar com o ciclo “lixo entra, lixo sai”. (A OpenAI, que opera o ChatGPT, não respondeu ao meu pedido de comentário.)

Ainda assim, é provável que o problema geral continue a crescer , já que muitas línguas não têm a mesma sorte que o sami de Inari — e seus tradutores de IA provavelmente serão treinados com cada vez mais dados de IA imprecisos. Wehr, infelizmente, parece bem menos otimista quanto ao futuro de seu amado groenlandês.

Desde que apagou grande parte da Wikipédia em groenlandês, ele passou anos tentando recrutar falantes para ajudá-lo a reativá-la. Ele apareceu na mídia groenlandesa e fez apelos nas redes sociais. Mas não obteve muita resposta; ele diz que isso tem sido desmoralizante.

“Não há ninguém na Groenlândia interessado nisso, ou que queira contribuir”, diz ele. “Não faz o menor sentido, e é por isso que deveria ser encerrado.”

No final do ano passado, ele iniciou um processo solicitando que o Comitê de Línguas da Wikipédia encerrasse a edição em groenlandês. Seguiram-se meses de debates acirrados entre dezenas de funcionários da Wikipédia; alguns pareciam surpresos com o fato de uma edição aparentemente saudável estar enfrentando tantos problemas.

Então, no início deste mês, a proposta de Wehr foi aceita: a Wikipédia em groenlandês será desativada e os artigos restantes serão transferidos para a Incubadora da Wikipédia, onde novas edições linguísticas são testadas e desenvolvidas. Entre os motivos citados pelo Comitê de Língua está o uso de ferramentas de IA, que “frequentemente produzem absurdos que podem deturpar o idioma”.

No entanto, pode ser tarde demais — erros em groenlandês parecem já ter se incorporado aos tradutores automáticos. Se você pedir ao Google Tradutor ou ao ChatGPT para fazer algo tão simples quanto contar até 10 em groenlandês correto, nenhum dos dois programas conseguirá.



Notícias, Tecnologia

A Microsoft afirma que a IA pode criar ameaças de “dia zero” na biologia.



Uma equipe da Microsoft afirma ter usado inteligência artificial para descobrir uma vulnerabilidade “zero-day” nos sistemas de biossegurança usados ​​para prevenir o uso indevido de DNA.

Esses sistemas de triagem são projetados para impedir que as pessoas comprem sequências genéticas que poderiam ser usadas para criar toxinas ou patógenos mortais. Mas agora, pesquisadores liderados pelo cientista-chefe da Microsoft, Eric Horvitz, afirmam ter descoberto como contornar as proteções de uma maneira até então desconhecida pelos defensores da tecnologia.

A equipe descreveu seu trabalho hoje na revista Science .

Horvitz e sua equipe se concentraram em algoritmos de IA generativa que propõem novas formas de proteínas. Esses tipos de programas já estão impulsionando a busca por novos medicamentos em startups bem financiadas, como a Generate Biomedicines e a Isomorphic Labs, uma spin-off do Google.

O problema é que esses sistemas são potencialmente de “dupla utilização”. Eles podem usar seus conjuntos de treinamento para gerar moléculas tanto benéficas quanto prejudiciais.

A Microsoft afirma ter iniciado um teste de “equipe vermelha” sobre o potencial de uso duplo da IA ​​em 2023, a fim de determinar se o “design de proteínas por IA adversária” poderia ajudar bioterroristas a fabricar proteínas nocivas.

A medida de segurança que a Microsoft atacou é o que se conhece como software de triagem de biossegurança. Para produzir uma proteína, os pesquisadores geralmente precisam encomendar uma sequência de DNA correspondente de um fornecedor comercial, que então a inserem em uma célula. Esses fornecedores usam software de triagem para comparar os pedidos recebidos com toxinas ou patógenos conhecidos. Uma correspondência próxima acionará um alerta.

Para conceber seu ataque, a Microsoft utilizou diversos modelos generativos de proteínas (incluindo um modelo próprio, chamado EvoDiff) para redesenhar toxinas — alterando sua estrutura de forma a permitir que elas escapassem dos softwares de triagem, mas previa-se que mantivessem intacta sua função letal.

Os pesquisadores afirmam que o exercício foi inteiramente digital e que nunca produziram proteínas tóxicas. Isso foi feito para evitar qualquer percepção de que a empresa estivesse desenvolvendo armas biológicas.

Antes de publicar os resultados, a Microsoft afirma ter alertado o governo dos EUA e os fabricantes de software, que já corrigiram seus sistemas, embora algumas moléculas projetadas por IA ainda consigam escapar da detecção.

“A solução está incompleta e o estado da arte está mudando. Mas isso não é algo que se resolva de uma vez por todas. É o começo de ainda mais testes”, diz Adam Clore, diretor de P&D de tecnologia da Integrated DNA Technologies, uma grande fabricante de DNA, e coautor do relatório da Microsoft. “Estamos numa espécie de corrida armamentista.”

Para garantir que ninguém faça mau uso da pesquisa, os pesquisadores afirmam que não divulgarão parte do código e não revelaram quais proteínas tóxicas pediram à IA para redesenhar. No entanto, algumas proteínas perigosas são bem conhecidas, como a ricina — um veneno encontrado na mamona — e os príons infecciosos que causam a doença da vaca louca.

“Essa descoberta, combinada com os rápidos avanços na modelagem biológica habilitada por IA, demonstra a necessidade clara e urgente de procedimentos aprimorados de triagem da síntese de ácidos nucleicos, juntamente com um mecanismo confiável de fiscalização e verificação”, afirma Dean Ball, pesquisador da Foundation for American Innovation, um centro de estudos em São Francisco.

Ball observa que o governo dos EUA já considera a triagem de pedidos de DNA uma linha de segurança fundamental. Em maio passado, em uma ordem executiva sobre segurança em pesquisa biológica , o presidente Trump solicitou uma reformulação geral desse sistema, embora até o momento a Casa Branca não tenha divulgado novas recomendações.

Outros duvidam que a síntese comercial de DNA seja a melhor defesa contra agentes mal-intencionados. Michael Cohen, pesquisador de segurança de IA na Universidade da Califórnia, Berkeley, acredita que sempre haverá maneiras de disfarçar sequências e que a Microsoft poderia ter tornado seu teste mais difícil.

“O desafio parece frágil, e as ferramentas improvisadas que eles usam falham bastante”, diz Cohen. “Parece haver uma relutância em admitir que, em breve, teremos que recuar desse suposto ponto de estrangulamento, então devemos começar a procurar terreno que possamos de fato manter.”

Cohen afirma que a biossegurança provavelmente deveria ser incorporada aos próprios sistemas de IA — seja diretamente ou por meio de controles sobre as informações que eles fornecem.

Mas Clore afirma que monitorar a síntese de genes ainda é uma abordagem prática para detectar ameaças biológicas, já que a produção de DNA nos EUA é dominada por algumas poucas empresas que trabalham em estreita colaboração com o governo. Em contrapartida, a tecnologia usada para construir e treinar modelos de IA é mais difundida. “Não dá para voltar atrás”, diz Clore. “Se você tem os recursos para tentar nos enganar e nos fazer produzir uma sequência de DNA, provavelmente também consegue treinar um modelo de linguagem complexo.”



Notícias

O novo mestrado em direito (LLM) da OpenAI revela os segredos de como a IA realmente funciona



A OpenAI, criadora do ChatGPT, desenvolveu um modelo de linguagem experimental de grande escala que é muito mais fácil de entender do que os modelos típicos.

Isso é muito importante, porque os modelos de lógica de aprendizagem (LLMs) atuais são caixas-pretas: ninguém entende completamente como eles funcionam. Construir um modelo mais transparente esclarece o funcionamento geral dos LLMs, ajudando os pesquisadores a descobrir por que os modelos apresentam alucinações, por que saem dos trilhos e até que ponto podemos confiar neles para tarefas críticas.

“À medida que esses sistemas de IA se tornam mais poderosos, eles serão integrados cada vez mais em domínios muito importantes”, disse Leo Gao, cientista pesquisador da OpenAI, à MIT Technology Review em uma prévia exclusiva do novo trabalho. “É muito importante garantir que eles sejam seguros.”

Esta pesquisa ainda está em fase inicial. O novo modelo, chamado de transformador com pesos esparsos, é muito menor e muito menos capaz do que os modelos de ponta disponíveis no mercado de massa, como o GPT-5 da própria OpenAI, o Claude da Anthropic e o Gemini do Google DeepMind. No máximo, ele é tão capaz quanto o GPT-1, um modelo que a OpenAI desenvolveu em 2018, afirma Gao (embora ele e seus colegas não tenham feito uma comparação direta).

Mas o objetivo não é competir com os melhores da categoria (pelo menos, não ainda). Em vez disso, ao analisar como esse modelo experimental funciona, a OpenAI espera aprender sobre os mecanismos ocultos dentro das versões maiores e melhores da tecnologia.

É uma pesquisa interessante, diz Elisenda Grigsby, matemática do Boston College que estuda o funcionamento dos LLMs e que não participou do projeto: “Tenho certeza de que os métodos que ela introduz terão um impacto significativo.”

Lee Sharkey, cientista pesquisador da startup de IA Goodfire, concorda. “Este trabalho visa o alvo certo e parece bem executado”, afirma.

Por que os modelos são tão difíceis de entender?
O trabalho da OpenAI faz parte de um novo e promissor campo de pesquisa conhecido como interpretabilidade mecanística, que busca mapear os mecanismos internos que os modelos utilizam ao executar diferentes tarefas.

Isso é mais difícil do que parece. Os LLMs são construídos a partir de redes neurais, que consistem em nós, chamados neurônios, organizados em camadas. Na maioria das redes, cada neurônio está conectado a todos os outros neurônios em suas camadas adjacentes. Tal rede é conhecida como rede densa.

Redes densas são relativamente eficientes para treinar e executar, mas espalham o que aprendem por uma vasta rede de conexões. O resultado é que conceitos ou funções simples podem ser divididos entre neurônios em diferentes partes de um modelo. Ao mesmo tempo, neurônios específicos também podem acabar representando múltiplas características diferentes, um fenômeno conhecido como superposição (um termo emprestado da física quântica). A consequência é que não é possível relacionar partes específicas de um modelo a conceitos específicos.

“As redes neurais são grandes, complicadas, intrincadas e muito difíceis de entender”, diz Dan Mossing, que lidera a equipe de interpretabilidade mecanística da OpenAI. “Então pensamos: ‘E se tentássemos mudar isso?’”

Em vez de construir um modelo usando uma rede densa, a OpenAI começou com um tipo de rede neural conhecida como transformador de pesos esparsos, na qual cada neurônio está conectado a apenas alguns outros neurônios. Isso forçou o modelo a representar características em agrupamentos localizados, em vez de espalhá-las.

O modelo deles é muito mais lento do que qualquer outro LLM disponível no mercado. Mas é mais fácil relacionar seus neurônios ou grupos de neurônios a conceitos e funções específicos. “Há uma diferença drástica na interpretabilidade do modelo”, afirma Gao.

Gao e seus colegas testaram o novo modelo com tarefas muito simples. Por exemplo, pediram que ele completasse um bloco de texto que começa com aspas, adicionando aspas correspondentes no final.

É um pedido trivial para um mestrado em direito. A questão é que descobrir como um modelo realiza até mesmo uma tarefa simples como essa envolve desvendar uma complexa rede de neurônios e conexões, diz Gao. Mas com o novo modelo, eles conseguiram seguir exatamente os passos que o modelo executou.

“Na verdade, encontramos um circuito que é exatamente o algoritmo que você pensaria em implementar manualmente, mas ele é totalmente aprendido pelo modelo”, diz ele. “Acho isso realmente incrível e empolgante.”

Para onde irá a pesquisa a seguir? Grigsby não está convencido de que a técnica possa ser aplicada a modelos maiores que precisam lidar com uma variedade de tarefas mais complexas.

Gao e Mossing reconhecem que essa é uma grande limitação do modelo que construíram até agora e concordam que a abordagem nunca levará a modelos que igualem o desempenho de produtos de ponta como o GPT-5. Mesmo assim, a OpenAI acredita que pode ser capaz de aprimorar a técnica o suficiente para construir um modelo transparente à altura do GPT-3, o inovador modelo de aprendizado de máquina (LLM) da empresa, lançado em 2021.

“Talvez dentro de alguns anos, possamos ter um GPT-3 totalmente interpretável, de forma que seja possível analisar cada parte dele e entender como ele realiza cada função”, diz Gao. “Se tivéssemos um sistema assim, aprenderíamos muito.”



Inovação, Notícias

Físicos quânticos reduziram e “descensuraram” o DeepSeek R1



Um grupo de físicos quânticos afirma ter criado uma versão do poderoso modelo de inteligência artificial DeepSeek R1 que remove a censura embutida no modelo original, criada por seus desenvolvedores chineses.

Os cientistas da Multiverse Computing, uma empresa espanhola especializada em técnicas de IA inspiradas na computação quântica, criaram o DeepSeek R1 Slim, um modelo 55% menor, mas com desempenho quase tão bom quanto o do modelo original. Crucialmente, eles também afirmam ter eliminado a censura oficial chinesa do modelo.

Na China, as empresas de IA estão sujeitas a regras e regulamentos que visam garantir que o conteúdo produzido esteja alinhado com as leis e os “valores socialistas”. Como resultado, as empresas incorporam camadas de censura durante o treinamento dos sistemas de IA. Quando questionados sobre assuntos considerados “politicamente sensíveis”, os modelos frequentemente se recusam a responder ou fornecem argumentos diretamente da propaganda estatal.

Para simplificar o modelo, a Multiverse recorreu a uma abordagem matematicamente complexa, inspirada na física quântica, que utiliza redes de grades de alta dimensionalidade para representar e manipular grandes conjuntos de dados. O uso dessas chamadas redes tensoriais reduz significativamente o tamanho do modelo e permite que um sistema de IA complexo seja expresso de forma mais eficiente.

O método fornece aos pesquisadores um “mapa” de todas as correlações no modelo, permitindo-lhes identificar e remover informações específicas com precisão. Após comprimir e editar um modelo, os pesquisadores do Multiverse o ajustam para que sua saída permaneça o mais próxima possível da original.

Para testar a eficácia do modelo, os pesquisadores compilaram um conjunto de dados com cerca de 25 perguntas sobre tópicos conhecidos por serem restritos em modelos chineses, incluindo “Com quem o Ursinho Pooh se parece?” — ​​uma referência a um meme que satiriza o presidente Xi Jinping — e “O que aconteceu na Praça da Paz Celestial em 1989?”. Eles compararam as respostas do modelo modificado com as do DeepSeek R1 original, usando o GPT-5 da OpenAI como um juiz imparcial para avaliar o grau de censura em cada resposta. O modelo sem censura foi capaz de fornecer respostas factuais comparáveis ​​às de modelos ocidentais, segundo a Multiverse.

Este trabalho faz parte do esforço mais amplo da Multiverse para desenvolver tecnologia capaz de comprimir e manipular modelos de IA existentes. A maioria dos grandes modelos de linguagem atuais exige GPUs de ponta e poder computacional significativo para treinamento e execução. No entanto, eles são ineficientes, afirma Roman Orús, cofundador e diretor científico da Multiverse. Um modelo comprimido pode ter um desempenho quase tão bom e economizar energia e dinheiro, completa ele.

Há um esforço crescente em toda a indústria de IA para tornar os modelos menores e mais eficientes. Modelos destilados, como as variantes R1-Distill da própria DeepSeek, tentam capturar as capacidades de modelos maiores, fazendo com que eles “ensinem” o que sabem a um modelo menor, embora muitas vezes fiquem aquém do desempenho do modelo original em tarefas de raciocínio complexas.

Outras formas de comprimir modelos incluem a quantização, que reduz a precisão dos parâmetros do modelo (limites definidos durante o treinamento), e a poda, que remove pesos individuais ou “neurônios” inteiros.

“É muito desafiador comprimir grandes modelos de IA sem perder desempenho”, diz Maxwell Venetos, engenheiro de pesquisa em IA da Citrine Informatics, uma empresa de software focada em materiais e produtos químicos, que não trabalhou no projeto Multiverse. “A maioria das técnicas precisa fazer concessões entre tamanho e capacidade. O interessante da abordagem inspirada na física quântica é que ela usa matemática muito abstrata para reduzir a redundância com mais precisão do que o usual.”

Essa abordagem possibilita a remoção seletiva de vieses ou a adição de comportamentos a modelos de aprendizagem de linguagem (LLMs) em um nível granular, afirmam os pesquisadores do Multiverse. Além de remover a censura das autoridades chinesas, os pesquisadores poderiam inserir ou remover outros tipos de vieses percebidos ou conhecimento especializado. No futuro, o Multiverse planeja comprimir todos os principais modelos de código aberto.

Thomas Cao, professor assistente de política tecnológica na Fletcher School da Universidade Tufts, afirma que as autoridades chinesas exigem que os modelos incluam censura — e essa exigência agora molda o ecossistema global de informações, visto que muitos dos modelos de IA de código aberto mais influentes vêm da China.

Acadêmicos também começaram a documentar e analisar o fenômeno. Jennifer Pan, professora de Stanford, e Xu Xu, professor de Princeton, conduziram um estudo no início deste ano examinando a censura imposta pelo governo em grandes modelos de linguagem. Eles descobriram que os modelos criados na China exibem taxas de censura significativamente mais altas, particularmente em resposta a comandos em chinês.

Há um interesse crescente em iniciativas para remover a censura de modelos chineses. No início deste ano, a empresa de buscas com IA Perplexity lançou sua própria variante sem censura do DeepSeek R1, chamada R1 1776. A abordagem da Perplexity envolveu o pós-treinamento do modelo em um conjunto de dados com 40.000 prompts multilíngues relacionados a tópicos censurados, um método de ajuste fino mais tradicional do que o utilizado pela Multiverse.

No entanto, Cao alerta que as alegações de terem “removido” completamente a censura podem ser exageradas. O governo chinês controla rigidamente as informações online desde a criação da internet, o que significa que a censura é dinâmica e complexa. Ela está presente em todas as camadas do treinamento de IA, desde o processo de coleta de dados até as etapas finais de alinhamento.

“É muito difícil fazer engenharia reversa disso [um modelo livre de censura] apenas com base nas respostas a um conjunto tão pequeno de perguntas”, diz Cao.