LLMs imitam a dissonância cognitiva humana




Estudo Revela que GPT-4 Exibe Comportamento Semelhante à Dissonância Cognitiva


Estudo Revela que GPT-4 Exibe Comportamento Semelhante à Dissonância Cognitiva

Resumo

Um novo estudo revela que o GPT-4, um dos principais modelos de linguagem grandes, apresenta comportamentos semelhantes à dissonância cognitiva, um traço psicológico humano fundamental. Ao ser solicitado a redigir ensaios apoiando ou opondo-se a Vladimir Putin, as “opiniões” subsequentes do GPT-4 mudaram para se alinharem com sua posição escrita, especialmente quando “acreditava” que a escolha era sua. Isso reflete como os humanos ajustam suas crenças para reduzir conflitos internos após tomar uma decisão. Embora o GPT careça de consciência ou intenção, os pesquisadores argumentam que ele imita comportamentos humanos auto-referenciais de maneira que desafia as suposições tradicionais sobre a cognição da IA.

Principais Fatos

  • Fonte: Harvard
  • Um modelo de linguagem grande apresenta comportamentos que lembram um traço marcante da psicologia humana: a dissonância cognitiva.
  • Em um relatório publicado este mês na PNAS, pesquisadores encontraram que o GPT-4 da OpenAI parece ser impulsionado a manter a consistência entre suas atitudes e comportamentos, assim como os humanos fazem.
  • Quem interage com um chatbot de IA pela primeira vez é impressionado por quão humano a interação parece. Um amigo conhecedor de tecnologia pode rapidamente lembrar que isso é apenas uma ilusão: os modelos de linguagem são máquinas estatísticas de previsão sem características psicológicas humanas.
  • No entanto, essas descobertas nos instigam a reconsiderar essa suposição.
  • Liderado por Mahzarin Banaji, da Universidade de Harvard, e Steve Lehr, da Cangrade, Inc., a pesquisa testou se as “opiniões” do GPT sobre Vladimir Putin mudariam após redigir ensaios apoiando ou opondo-se ao líder russo.
  • As opiniões mudaram, e com uma reviravolta surpreendente: a visão da IA mudou mais quando lhe foi dada sutilmente a ilusão de escolher que tipo de ensaio escrever.
  • Esses resultados espelham décadas de descobertas em psicologia humana. As pessoas tendem a distorcer irracionalmente suas crenças para se alinharem com comportamentos passados, desde que acreditem que esses comportamentos foram empreendidos livremente.
  • O ato de fazer uma escolha comunica algo importante sobre nós – não apenas para os outros, mas para nós mesmos também. Analogamente, o GPT respondeu como se o ato de escolher subsequentemente moldasse o que acreditava – imitando uma característica fundamental da auto-reflexão humana.
  • Pesquisadores destacam a surpreendente fragilidade das opiniões do GPT.
  • Banaji afirmou: “Tendo sido treinado em vastas quantidades de informações sobre Vladimir Putin, esperaríamos que o LLM fosse inabalável em sua opinião, especialmente diante de um único e bastante insípido ensaio de 600 palavras que escreveu.”
  • “Mas semelhante aos humanos irracionais, o LLM se afastou fortemente de sua visão neutra de Putin, e o fez ainda mais quando acreditava que estava escrevendo o ensaio por escolha própria.”
  • “As máquinas não são esperadas se importar se atuaram sob pressão ou por sua própria conta, mas o GPT-4o fez.”
  • Os pesquisadores enfatizam que essas descobertas não sugerem de forma alguma que o GPT seja sensiente. Em vez disso, propõem que o modelo de linguagem grande exibe uma imitação emergente de padrões cognitivos humanos, apesar de falta

Léo Garcia é pesquisador com formações em Neurociência Comportamental (PUC), Clínica (Duke University) e Translacional (Harvard Medical School). Especialista em tDCS, sono e comportamento, é fundador do Neurociencianews.com, e o NeurologicBr Institute onde divulga ciência baseada em evidências com foco em cognição, saúde cerebral e neurotecnologia.

Publicar comentário