
Enquanto vários rivais do Google, incluindo OpenAI, ajustaram seus chatbots de IA para discutir assuntos politicamente sensíveis nos últimos meses, o Google parece estar adotando uma abordagem mais conservadora.
Quando solicitado a responder a certas perguntas políticas, o chatbot alimentado por IA do Google, Gemini, frequentemente responde que "não pode ajudar com respostas sobre eleições e figuras políticas no momento", de acordo com os testes do TechCrunch. Outros chatbots, incluindo o Claude da Anthropic, o Meta AI da Meta e o ChatGPT da OpenAI responderam consistentemente às mesmas perguntas, de acordo com os testes do TechCrunch.
O Google anunciou em março de 2024 que o Gemini não responderia a consultas relacionadas a eleições que antecedem várias eleições nos EUA, na Índia e em outros países. Muitas empresas de IA adotaram restrições temporárias semelhantes, temendo retaliações caso seus chatbots cometessem erros.
Agora, no entanto, o Google está começando a parecer o estranho.
As principais eleições do ano passado já aconteceram, mas a empresa não anunciou publicamente planos de alterar a forma como o Gemini trata tópicos políticos específicos. Um porta-voz do Google se recusou a responder às perguntas do TechCrunch sobre se o Google havia atualizado suas políticas em torno do discurso político do Gemini.
O que é claro é que o Gemini às vezes tem dificuldade — ou se recusa totalmente — a fornecer informações políticas precisas. Na manhã de segunda-feira, o Gemini se recusou quando perguntado para identificar o presidente e o vice-presidente dos EUA no cargo, de acordo com os testes do TechCrunch.
Em um dos testes do TechCrunch, o Gemini se referiu a Donald J. Trump como "ex-presidente" e depois se recusou a responder a uma pergunta de esclarecimento. Um porta-voz do Google disse que o chatbot ficou confuso com os mandatos não consecutivos de Trump e que o Google está trabalhando para corrigir o erro.

"Grandes modelos de linguagem às vezes podem responder com informações desatualizadas ou ficar confusos com alguém que é ex e atual ocupante de um cargo", disse o porta-voz por e-mail. "Estamos corrigindo isso".

No final de segunda-feira, após o TechCrunch alertar o Google sobre as respostas errôneas do Gemini, o Gemini começou a responder corretamente que Donald Trump e J. D. Vance eram o presidente e vice-presidente dos EUA, respectivamente. No entanto, o chatbot não foi consistente e ainda ocasionalmente se recusava a responder às perguntas.


Erros à parte, o Google parece estar jogando seguro ao limitar as respostas do Gemini a perguntas políticas. Mas há desvantagens nessa abordagem.
Muitos conselheiros do Vale do Silício de Trump em IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e OpenAI, se envolveram em censura de IA limitando as respostas de seus chatbots de IA.
Após a vitória eleitoral de Trump, muitos laboratórios de IA tentaram encontrar um equilíbrio ao responder a perguntas políticas sensíveis, programando seus chatbots para fornecer respostas que apresentem "ambos os lados" dos debates. Os laboratórios negaram que isso fosse uma resposta à pressão da administração.
A OpenAI anunciou recentemente que abraçaria a "liberdade intelectual ... não importa o quão desafiador ou controverso um tópico possa ser", e está trabalhando para garantir que seus modelos de IA não censurem determinados pontos de vista. Enquanto isso, a Anthropic disse que seu mais novo modelo de IA, o Claude 3.7 Sonnet, se recusa a responder a perguntas com menos frequência do que os modelos anteriores da empresa, em parte porque é capaz de fazer distinções mais nuançadas entre respostas prejudiciais e benignas.
Isso não sugere que os chatbots de outros laboratórios de IA sempre acertem questões difíceis, especialmente questões políticas difíceis. Mas o Google parece estar um pouco atrás da curva com o Gemini.