O Problema do Conteúdo IA de Baixa Qualidade no YouTube é Pior do Que Você Imagina

O Problema do Conteúdo “Slop” Gerado por IA na Plataforma

O problema do conteúdo “slop” (lixo/porcaria) gerado por Inteligência Artificial (IA) está muito mais disseminado do que se imagina e afeta a todos, mesmo quem não consome esse tipo de material.

Para identificar o conteúdo em questão, basta realizar uma busca por termos como “revenge stories” (histórias de vingança). Grande parte dos resultados apresentará vídeos de péssima qualidade, essencialmente lixo gerado por IA. Isso inclui roteiros criados por IA, narrações feitas por vozes artificiais e imagens ou vídeos gerados por IA, muitas vezes sobrepostos a *gameplays* aleatórios e repetitivos.

Existem inúmeros outros nichos explorados por esses “criadores falsos”, como histórias falsas da Segunda Guerra Mundial, histórias do Velho Oeste e contos sobre nativos americanos ou histórias de terror. Frequentemente, esses canais publicam múltiplas vezes ao dia.

Com o auxílio de uma ferramenta personalizada, foi possível identificar dezenas de canais inteiramente baseados em IA, o que evidenciou que o problema é ainda maior do que se pensava inicialmente, mesmo com uma análise superficial de apenas uma página de resultados. É provável que existam milhares desses canais de conteúdo de baixa qualidade.

Visualizações e Monetização: O Problema Real

Muitos podem pensar: “Quem se importa? Eles não estão conseguindo muitas visualizações, certo?”. No entanto, esses canais estão, sim, acumulando audiência. Há exemplos de canais com mais de um bilhão de visualizações totais, gerando milhões de visualizações diariamente, apesar de alegarem possuir uma pequena equipe de roteiristas humanos. Claramente, o conteúdo é gerado por IA.

Um exemplo notável é um canal com mais de 600 milhões de visualizações totais que chegou a publicar 10 vídeos por dia em certos momentos. Isso é alarmante.

A questão central é: por que isso importa se as pessoas estão assistindo a vídeos de lixo gerados por IA?

O cerne do problema é que a capacidade desses supostos criadores de gerar tanto dinheiro com esse tipo de conteúdo *lixo* acaba incentivando a produção ainda maior desse mesmo material. Se é possível lucrar tanto com conteúdo gerado por IA que exige pouco esforço, faz pouco sentido para criadores genuínos produzirem algo original.

A Política do YouTube Contra Conteúdo Inautêntico

A boa notícia é que, tecnicamente, a plataforma não permite esse tipo de conteúdo. Existe a política de **Conteúdo Inautêntico**, que visa barrar materiais produzidos em massa como este. A política é clara ao afirmar que esse tipo de conteúdo não deve ser monetizado.

Contudo, o desafio reside na dificuldade da plataforma em filtrar e impedir a monetização desses canais desde o início. Há relatos de “criadores” (que mal merecem esse título) que publicavam que estavam ganhando dezenas de milhares de dólares por mês e reclamavam publicamente quando o YouTube, ao desmonetizá-los por violarem a política de conteúdo inautêntico, recolhia, por exemplo, $27.000 do mês anterior.

É fundamental notar que esses canais nunca deveriam ter sido monetizados em primeiro lugar. O fato de lamentarem a perda de dinheiro “mal adquirido” mostra a falta de consideração pelo conteúdo que produzem. Além disso, os valores mencionados são apenas o que foi recuperado no último mês; o lucro acumulado antes disso provavelmente era ainda maior.

Houve também relatos de usuários que alegaram ter sido penalizados “por engano” por conteúdo inautêntico. A realidade, porém, é que, dado o volume de produção, a plataforma tem focado seus esforços recentemente, especialmente no último mês, em fiscalizar essas violações, que existem desde julho, quando a política foi estabelecida.

É importante distinguir: esses canais estão sendo **desmonetizados**, não banidos. Na visão de alguns, isso é aceitável. O conteúdo gerado por IA em si não precisa ser proibido, mas o incentivo financeiro deve ser eliminado. Se alguém deseja usar o ChatGPT para gerar histórias e publicá-las, pode fazê-lo. O problema surge quando há um grande incentivo monetário para produzir *slop* automatizado, pois esses “criadores” não se importam com a qualidade ou veracidade do material que exploram.

O Impacto nos Criadores de Conteúdo Genuíno

Se a plataforma permitisse a monetização plena desses canais, o que isso sinalizaria aos criadores que investem tempo e esforço em conteúdo verdadeiramente original, sem o auxílio de IA?

Esses criadores veriam os canais de lixo de IA ostentando ganhos significativos com muito menos trabalho. A mensagem implícita da plataforma seria: “Você deveria estar fazendo *slop* de IA, pois é isso que estamos recompensando com mais dinheiro e que exige menos esforço. Por que você faria conteúdo original?”. Isso resultaria na substituição de conteúdo novo e autêntico por *sludge* gerado por IA.

Reportando e a Necessidade de Mudança Técnica

Não é viável depender apenas de denúncias, pois a política de conteúdo inautêntico se refere à monetização, e não a diretrizes gerais da comunidade. No entanto, há uma exceção crucial:

* Se o canal produz conteúdo de IA, mas **não o marca** como sintético ou alterado, ele pode ser reportado por **spam**. A plataforma exige que vídeos gerados por IA sejam devidamente rotulados. Se não o forem, isso representa uma violação que permite a denúncia.

Infelizmente, não há como saber se um canal específico está monetizado apenas olhando para sua existência. A responsabilidade recai, em grande parte, sobre a plataforma encontrar esses canais e desmonetizá-los.

Acredita-se que esse será um problema persistente. A solução futura pode envolver uma mudança técnica drástica: exigir que celulares e câmeras assinem digitalmente os vídeos com *hashes* criptográficos, confirmando que o conteúdo é original e não modificado. Softwares de edição também precisariam implementar um “histórico de custódia”, detalhando exatamente quais partes do vídeo foram alteradas. Embora existam tecnologias como “Content Credentials” para imagens (no Photoshop, por exemplo), um equivalente robusto para vídeo é necessário.

Isso exigiria cooperação da indústria, mas é uma direção que se deve seguir para garantir a autenticidade do conteúdo.

É importante frisar que este artigo não é contra a IA em si. A IA é uma ferramenta poderosa, utilizada para codificação e criação de outras ferramentas (como a que ajudou a identificar esses canais de *slop*). O problema não é a IA, mas sim o **incentivo monetário para a produção em massa de conteúdo falso e sem valor**. Se 1% desse material automatizado for monetizado, os criadores ainda terão incentivo para continuar.

A esperança é que a plataforma continue a agir agressivamente na desmonetização. Além do desperdício de espaço de armazenamento que esses canais geram, há o efeito social prejudicial de incentivar conteúdo falso e fabricado, o que, se não for controlado, transformará a plataforma em um repositório de lixo puramente artificial.

Perguntas Frequentes

  • O que caracteriza o “AI slop” mencionado?
    Refere-se a vídeos produzidos majoritariamente com o auxílio de Inteligência Artificial, incluindo roteiros, narração e imagens/vídeos gerados artificialmente, resultando em conteúdo de baixíssima qualidade ou sem valor informativo real.
  • Por que a monetização desse conteúdo é um problema?
    A monetização incentiva a criação massiva desse material de baixo esforço, desmotivando criadores que produzem conteúdo original e de alta qualidade, podendo levar à saturação da plataforma com lixo gerado por IA.
  • Qual é a política do YouTube sobre conteúdo gerado por IA?
    Existe uma política de Conteúdo Inautêntico que impede a monetização de materiais produzidos em massa via IA. Além disso, vídeos que utilizam IA devem ser marcados como tal.
  • É possível denunciar um vídeo de IA não marcado?
    Sim. Se um vídeo gerado por IA não estiver devidamente rotulado como alterado ou sintético, ele pode ser reportado por violação da política de spam, que exige essa marcação.
  • Qual a melhor forma de combater a proliferação desse conteúdo?
    A melhor forma é a fiscalização rigorosa e contínua da plataforma para desmonetizar esses canais, e futuramente, a adoção de sistemas de certificação criptográfica para verificar a origem e a edição de vídeos autênticos.