LLMs imitam a dissonância cognitiva humana
Estudo Revela que GPT-4 Exibe Comportamento Semelhante à Dissonância Cognitiva
Resumo
Um novo estudo revela que o GPT-4, um dos principais modelos de linguagem grandes, apresenta comportamentos semelhantes à dissonância cognitiva, um traço psicológico humano fundamental. Ao ser solicitado a redigir ensaios apoiando ou opondo-se a Vladimir Putin, as “opiniões” subsequentes do GPT-4 mudaram para se alinharem com sua posição escrita, especialmente quando “acreditava” que a escolha era sua. Isso reflete como os humanos ajustam suas crenças para reduzir conflitos internos após tomar uma decisão. Embora o GPT careça de consciência ou intenção, os pesquisadores argumentam que ele imita comportamentos humanos auto-referenciais de maneira que desafia as suposições tradicionais sobre a cognição da IA.
Principais Fatos
- Fonte: Harvard
- Um modelo de linguagem grande apresenta comportamentos que lembram um traço marcante da psicologia humana: a dissonância cognitiva.
- Em um relatório publicado este mês na PNAS, pesquisadores encontraram que o GPT-4 da OpenAI parece ser impulsionado a manter a consistência entre suas atitudes e comportamentos, assim como os humanos fazem.
- Quem interage com um chatbot de IA pela primeira vez é impressionado por quão humano a interação parece. Um amigo conhecedor de tecnologia pode rapidamente lembrar que isso é apenas uma ilusão: os modelos de linguagem são máquinas estatísticas de previsão sem características psicológicas humanas.
- No entanto, essas descobertas nos instigam a reconsiderar essa suposição.
- Liderado por Mahzarin Banaji, da Universidade de Harvard, e Steve Lehr, da Cangrade, Inc., a pesquisa testou se as “opiniões” do GPT sobre Vladimir Putin mudariam após redigir ensaios apoiando ou opondo-se ao líder russo.
- As opiniões mudaram, e com uma reviravolta surpreendente: a visão da IA mudou mais quando lhe foi dada sutilmente a ilusão de escolher que tipo de ensaio escrever.
- Esses resultados espelham décadas de descobertas em psicologia humana. As pessoas tendem a distorcer irracionalmente suas crenças para se alinharem com comportamentos passados, desde que acreditem que esses comportamentos foram empreendidos livremente.
- O ato de fazer uma escolha comunica algo importante sobre nós – não apenas para os outros, mas para nós mesmos também. Analogamente, o GPT respondeu como se o ato de escolher subsequentemente moldasse o que acreditava – imitando uma característica fundamental da auto-reflexão humana.
- Pesquisadores destacam a surpreendente fragilidade das opiniões do GPT.
- Banaji afirmou: “Tendo sido treinado em vastas quantidades de informações sobre Vladimir Putin, esperaríamos que o LLM fosse inabalável em sua opinião, especialmente diante de um único e bastante insípido ensaio de 600 palavras que escreveu.”
- “Mas semelhante aos humanos irracionais, o LLM se afastou fortemente de sua visão neutra de Putin, e o fez ainda mais quando acreditava que estava escrevendo o ensaio por escolha própria.”
- “As máquinas não são esperadas se importar se atuaram sob pressão ou por sua própria conta, mas o GPT-4o fez.”
- Os pesquisadores enfatizam que essas descobertas não sugerem de forma alguma que o GPT seja sensiente. Em vez disso, propõem que o modelo de linguagem grande exibe uma imitação emergente de padrões cognitivos humanos, apesar de falta


Publicar comentário