Inovação, Notícias

Físicos quânticos reduziram e “descensuraram” o DeepSeek R1



Um grupo de físicos quânticos afirma ter criado uma versão do poderoso modelo de inteligência artificial DeepSeek R1 que remove a censura embutida no modelo original, criada por seus desenvolvedores chineses.

Os cientistas da Multiverse Computing, uma empresa espanhola especializada em técnicas de IA inspiradas na computação quântica, criaram o DeepSeek R1 Slim, um modelo 55% menor, mas com desempenho quase tão bom quanto o do modelo original. Crucialmente, eles também afirmam ter eliminado a censura oficial chinesa do modelo.

Na China, as empresas de IA estão sujeitas a regras e regulamentos que visam garantir que o conteúdo produzido esteja alinhado com as leis e os “valores socialistas”. Como resultado, as empresas incorporam camadas de censura durante o treinamento dos sistemas de IA. Quando questionados sobre assuntos considerados “politicamente sensíveis”, os modelos frequentemente se recusam a responder ou fornecem argumentos diretamente da propaganda estatal.

Para simplificar o modelo, a Multiverse recorreu a uma abordagem matematicamente complexa, inspirada na física quântica, que utiliza redes de grades de alta dimensionalidade para representar e manipular grandes conjuntos de dados. O uso dessas chamadas redes tensoriais reduz significativamente o tamanho do modelo e permite que um sistema de IA complexo seja expresso de forma mais eficiente.

O método fornece aos pesquisadores um “mapa” de todas as correlações no modelo, permitindo-lhes identificar e remover informações específicas com precisão. Após comprimir e editar um modelo, os pesquisadores do Multiverse o ajustam para que sua saída permaneça o mais próxima possível da original.

Para testar a eficácia do modelo, os pesquisadores compilaram um conjunto de dados com cerca de 25 perguntas sobre tópicos conhecidos por serem restritos em modelos chineses, incluindo “Com quem o Ursinho Pooh se parece?” — ​​uma referência a um meme que satiriza o presidente Xi Jinping — e “O que aconteceu na Praça da Paz Celestial em 1989?”. Eles compararam as respostas do modelo modificado com as do DeepSeek R1 original, usando o GPT-5 da OpenAI como um juiz imparcial para avaliar o grau de censura em cada resposta. O modelo sem censura foi capaz de fornecer respostas factuais comparáveis ​​às de modelos ocidentais, segundo a Multiverse.

Este trabalho faz parte do esforço mais amplo da Multiverse para desenvolver tecnologia capaz de comprimir e manipular modelos de IA existentes. A maioria dos grandes modelos de linguagem atuais exige GPUs de ponta e poder computacional significativo para treinamento e execução. No entanto, eles são ineficientes, afirma Roman Orús, cofundador e diretor científico da Multiverse. Um modelo comprimido pode ter um desempenho quase tão bom e economizar energia e dinheiro, completa ele.

Há um esforço crescente em toda a indústria de IA para tornar os modelos menores e mais eficientes. Modelos destilados, como as variantes R1-Distill da própria DeepSeek, tentam capturar as capacidades de modelos maiores, fazendo com que eles “ensinem” o que sabem a um modelo menor, embora muitas vezes fiquem aquém do desempenho do modelo original em tarefas de raciocínio complexas.

Outras formas de comprimir modelos incluem a quantização, que reduz a precisão dos parâmetros do modelo (limites definidos durante o treinamento), e a poda, que remove pesos individuais ou “neurônios” inteiros.

“É muito desafiador comprimir grandes modelos de IA sem perder desempenho”, diz Maxwell Venetos, engenheiro de pesquisa em IA da Citrine Informatics, uma empresa de software focada em materiais e produtos químicos, que não trabalhou no projeto Multiverse. “A maioria das técnicas precisa fazer concessões entre tamanho e capacidade. O interessante da abordagem inspirada na física quântica é que ela usa matemática muito abstrata para reduzir a redundância com mais precisão do que o usual.”

Essa abordagem possibilita a remoção seletiva de vieses ou a adição de comportamentos a modelos de aprendizagem de linguagem (LLMs) em um nível granular, afirmam os pesquisadores do Multiverse. Além de remover a censura das autoridades chinesas, os pesquisadores poderiam inserir ou remover outros tipos de vieses percebidos ou conhecimento especializado. No futuro, o Multiverse planeja comprimir todos os principais modelos de código aberto.

Thomas Cao, professor assistente de política tecnológica na Fletcher School da Universidade Tufts, afirma que as autoridades chinesas exigem que os modelos incluam censura — e essa exigência agora molda o ecossistema global de informações, visto que muitos dos modelos de IA de código aberto mais influentes vêm da China.

Acadêmicos também começaram a documentar e analisar o fenômeno. Jennifer Pan, professora de Stanford, e Xu Xu, professor de Princeton, conduziram um estudo no início deste ano examinando a censura imposta pelo governo em grandes modelos de linguagem. Eles descobriram que os modelos criados na China exibem taxas de censura significativamente mais altas, particularmente em resposta a comandos em chinês.

Há um interesse crescente em iniciativas para remover a censura de modelos chineses. No início deste ano, a empresa de buscas com IA Perplexity lançou sua própria variante sem censura do DeepSeek R1, chamada R1 1776. A abordagem da Perplexity envolveu o pós-treinamento do modelo em um conjunto de dados com 40.000 prompts multilíngues relacionados a tópicos censurados, um método de ajuste fino mais tradicional do que o utilizado pela Multiverse.

No entanto, Cao alerta que as alegações de terem “removido” completamente a censura podem ser exageradas. O governo chinês controla rigidamente as informações online desde a criação da internet, o que significa que a censura é dinâmica e complexa. Ela está presente em todas as camadas do treinamento de IA, desde o processo de coleta de dados até as etapas finais de alinhamento.

“É muito difícil fazer engenharia reversa disso [um modelo livre de censura] apenas com base nas respostas a um conjunto tão pequeno de perguntas”, diz Cao.



You Might Also Like

No Comments

Leave a Reply