O conteúdo gerado por IA proliferou na internet nos últimos anos, mas aquelas primeiras criações com mãos deformadas evoluíram para imagens e vídeos sintéticos que podem ser difíceis de distinguir da realidade. Tendo contribuído para a criação desse problema, o Google tem a responsabilidade de controlar o conteúdo de vídeo gerado por IA no YouTube. Para isso, a empresa começou a implementar seu sistema de detecção de semelhança para criadores de conteúdo.
Os poderosos modelos de IA do Google, disponíveis gratuitamente, ajudaram a impulsionar o crescimento do conteúdo gerado por IA, parte do qual é usado para disseminar desinformação e assediar pessoas. Criadores de conteúdo e influenciadores temem que suas marcas sejam prejudicadas por uma enxurrada de vídeos gerados por IA que os mostram dizendo e fazendo coisas que nunca aconteceram — até mesmo legisladores estão preocupados com isso. O Google fez uma grande aposta no valor do conteúdo gerado por IA, então banir a IA do YouTube, como muitos desejam, simplesmente não vai acontecer.
No início deste ano, o YouTube prometeu ferramentas que sinalizariam conteúdo gerado por IA que usa a imagem de pessoas sem autorização na plataforma. A ferramenta de detecção de semelhança, semelhante ao sistema de detecção de direitos autorais do site, agora foi expandida para além do pequeno grupo inicial de testadores. O YouTube afirma que o primeiro lote de criadores elegíveis já foi notificado de que pode usar a detecção de semelhança, mas os interessados precisarão fornecer ao Google ainda mais informações pessoais para obter proteção contra falsificações geradas por IA.
Atualmente, a detecção de semelhança facial é um recurso em fase beta, disponível para testes limitados, portanto, nem todos os criadores verão essa opção no YouTube Studio. Quando estiver disponível, ela estará integrada ao menu “Detecção de conteúdo”. No vídeo de demonstração do YouTube, o processo de configuração parece presumir que o canal tenha apenas um apresentador cuja imagem precisa ser protegida. Essa pessoa deve verificar sua identidade, o que exige uma foto de um documento de identificação oficial e um vídeo do seu rosto. Não está claro por que o YouTube precisa desses dados, além dos vídeos que as pessoas já publicaram com seus rostos tão facilmente copiáveis, mas regras são regras.
Sem garantias
Após o cadastro, o YouTube sinalizará vídeos de outros canais que parecem conter o rosto do usuário. O algoritmo do YouTube não consegue saber com certeza o que é e o que não é um vídeo gerado por IA. Portanto, alguns dos resultados de correspondência facial podem ser falsos positivos de canais que usaram um pequeno trecho sob as diretrizes de uso justo.
Se os criadores encontrarem um vídeo falso gerado por IA, eles podem adicionar alguns detalhes e enviar um relatório em poucos minutos. Se o vídeo incluir conteúdo copiado do canal do criador que não esteja em conformidade com as diretrizes de uso justo, o YouTube sugere também enviar uma solicitação de remoção por violação de direitos autorais. No entanto, o simples fato de a imagem de uma pessoa aparecer em um vídeo gerado por IA não significa necessariamente que o YouTube o removerá.
O YouTube publicou uma lista dos fatores que seus revisores levarão em consideração ao decidir se aprovam ou não uma solicitação de remoção. Por exemplo, conteúdo de paródia rotulado como IA ou vídeos com um estilo irrealista podem não atender aos critérios para remoção. Por outro lado, você pode presumir com segurança que um vídeo realista gerado por IA mostrando alguém endossando um produto ou se envolvendo em atividades ilegais violará as regras e será removido do YouTube.
Embora este possa ser um problema emergente para os criadores de conteúdo no momento, o conteúdo gerado por IA no YouTube provavelmente se intensificará em breve. O Google revelou recentemente seu novo modelo de vídeo Veo 3.1, que inclui suporte para vídeos gerados por IA tanto na orientação retrato quanto paisagem. A empresa já havia prometido integrar o Veo ao YouTube, tornando ainda mais fácil para as pessoas produzirem conteúdo de IA de baixa qualidade que pode incluir representações de pessoas reais.
A OpenAI, concorrente do Google, obteve sucesso (pelo menos em termos de popularidade) com seu aplicativo de vídeo Sora e o novo modelo Sora 2 que o alimenta. Isso pode impulsionar o Google a acelerar seus planos de IA para o YouTube, mas, como vimos com o Sora, as pessoas adoram fazer figuras públicas realizarem ações estranhas. Criadores populares podem ter que começar a registrar reclamações sobre o uso indevido de sua imagem por IA com a mesma frequência com que registram pedidos de remoção por violação de direitos autorais (DMCA).




No Comments