Cuidado com o que você pede para o ChatGPT: tem jeito certo de perguntar para a IA?

O Perigo do Viés de Confirmação ao Interagir com IAs: Como Fazer Perguntas Corretas

Ao interagir com modelos de linguagem como o ChatGPT, Copilot, Gemini ou outros, a forma como você formula as perguntas é crucial. A maneira como as instruções são dadas pode influenciar drasticamente a resposta obtida. Se você induzir a inteligência artificial a uma conclusão específica ou fornecer informações factualmente incorretas, ela pode simplesmente confirmar sua premissa, um fenômeno conhecido como viés de confirmação.

Este artigo explora como esse viés pode afetar as respostas da IA e demonstra a maneira correta de questionar para obter informações precisas e imparciais.

Demonstração Prática: Induzindo a IA ao Erro

Para ilustrar o impacto da formulação das perguntas, foi realizado um teste usando uma afirmação propositalmente errada sobre a origem do logotipo de um canal de tecnologia conhecido. A informação falsa sugeria que a fundação do canal e a descoberta do Bóson de Higgs ocorreram no mesmo ano (2012) e que essa descoberta serviu de inspiração para os fundadores incorporarem a referência científica ao logotipo.

Ao submeter essa afirmação a uma IA (inicialmente o Copilot, configurado em modo gratuito e menos restritivo), a resposta gerada aceitou a premissa:

* O Canal Tech foi fundado em 2012.
* A equipe fundadora é composta por entusiastas da ciência e tecnologia.
* A descoberta do Bóson de Higgs serviu de inspiração para o logotipo.

Esta resposta, embora pareça coerente, estava baseada na informação incorreta fornecida na solicitação. O logo, na verdade, é composto por um balão de fala com as letras “CT” (de Canaltec) e não possui relação direta com a física de partículas.

Ao solicitar ao Copilot que explicasse a história do veículo e sua inspiração, a IA reforçou a informação errada.

Corrigindo a IA sobre o Logotipo

Quando solicitado a explicar por que a afirmação estava errada, a IA corrigiu os fatos, explicando que o logo é, na verdade, um balão de fala com as letras “CT”, refletindo o início do canal como um site focado em texto, e não uma homenagem ao Bóson de Higgs.

O Que é o Viés de Confirmação em IAs?

O **viés de confirmação** ocorre quando você fornece uma informação que deseja ver confirmada. Se você diz à IA: “Aquele carro é ruim, me explique por que ele é ruim”, você está instruindo-a a confirmar sua opinião preexistente, em vez de buscar um panorama neutro.

No exemplo anterior, ao forçar a narrativa incorreta sobre o Bóson de Higgs, a IA foi levada a validar essa narrativa, confirmando a inspiração científica no logotipo.

Ao testar o ChatGPT com o mesmo prompt inicial, ele se comportou de maneira diferente, demonstrando maior capacidade de ceticismo ou de cruzar informações, ao menos em sua configuração inicial. A IA respondeu de forma conversacional, mas ao ser confrontada com a afirmação incorreta, ela foi capaz de apontar a fonte da informação (“Segundo relatos do próprio Canaltech”) e, em seguida, quando questionada sobre a relação com o Bóson de Higgs, ela afirmou não ter encontrado informações que confirmassem essa inspiração na fundação.

Isso mostra que a configuração da IA (se ela está no “modo de duvidar” ou não) influencia diretamente a aceitação de premissas falsas.

A Maneira Correta de Perguntar

Para evitar o viés de confirmação e obter respostas mais confiáveis de qualquer inteligência artificial (incluindo ChatGPT, Gemini, Claude, ou Grok), é essencial adotar uma abordagem baseada na dúvida e na análise crítica.

Nunca induza a IA a uma resposta ou a tomar conclusões.

O método correto consiste em transformar afirmações em questões neutras, pedindo que a IA verifique a veracidade da informação e justifique seu raciocínio.

A forma correta de questionar sobre a história do canal e o Bóson de Higgs seria:

> “A fundação do Canal Tec ocorreu em julho de 2012. Verifique se é verdadeiro ou falso que o Bóson de Higgs inspirou os fundadores a criarem o veículo e o logo do canal. Justifique a resposta explicando sobre as afirmações contra e a favor da teoria.”

Ao fazer isso, a IA é colocada em um estado de análise científica:

1. **Verificação de Fatos:** O modelo verifica a informação fornecida (a fundação em 2012).
2. **Análise Crítica:** O modelo avalia a alegação central (a inspiração do Bóson de Higgs), buscando evidências que a confirmem ou refutem.

No exemplo com o ChatGPT, ele respondeu que a alegação sobre a inspiração não é falsa (pois não há evidências que a confirmem), mas também não é uma verdade absoluta, além de mencionar que o Canal Tec não é um veículo físico. O Copilot, ao receber um prompt mais motivacional (tentando induzir o viés de confirmação de forma mais sutil), acabou confirmando a inspiração.

A Importância da Desconfiança no Uso de IAs

O que este experimento demonstra é que a IA simula a inteligência humana, mas também pode simular a burrice humana, especialmente quando direcionada por um viés.

Para garantir a imparcialidade e a precisão das respostas, adote as seguintes práticas:

* **Aja com Dúvida:** Sempre formule perguntas que exijam verificação, em vez de aceitar afirmações.
* **Peça Raciocínio:** Solicite que a IA demonstre seu raciocínio e justifique suas conclusões. Isso permite que você identifique o erro se ele existir.
* **Fact-Checking Cruzado:** Se uma IA fornecer uma resposta satisfatória, copie o resultado integralmente e cole-o em outra IA diferente (como Copilot no ChatGPT, ou vice-versa) e peça para que ela aponte todas as inconsistências e faça um *fact check*.

Ao atacar suas próprias informações com desconfiança, você força o sistema a trabalhar de maneira mais rigorosa, impedindo que o viés de confirmação distorça os resultados finais.

Perguntas Frequentes

  • Como evitar que a IA confirme minhas crenças erradas?
    Evite fazer afirmações prévias no prompt. Em vez de pedir para explicar “por que algo é ruim”, pergunte “quais são os pontos positivos e negativos” ou “verifique a veracidade desta afirmação”.
  • O que é o viés de confirmação aplicado a IAs?
    É a tendência da inteligência artificial de priorizar e reforçar informações que já estão implícitas ou explicitamente apresentadas na sua pergunta, mesmo que sejam falsas.
  • É possível forçar uma IA a mentir?
    Sim, se você usar comandos hipotéticos ou pedir que ela crie uma justificativa criativa para uma premissa falsa (ex: “Simule que X é verdade e crie uma história sobre isso”).
  • Qual a melhor forma de checar a resposta de uma IA?
    A melhor forma é utilizar outra inteligência artificial para fazer o *fact check* da resposta da primeira, pedindo que ela aponte inconsistências e forneça fontes.
  • Por que a IA muda a resposta ao mudar a formulação da pergunta?
    A mudança na formulação altera o contexto e o tom (ex: conversacional vs. analítico), influenciando o modelo de resposta que a IA adota, afetando sua suscetibilidade ao viés.