Pedem ao ChatGPT para resolver um problema de 2.400 anos atrás e o resultado mostra que ele começa a raciocinar de forma semelhante aos humanos

O problema é considerado um desafio clássico da Grécia antiga. Os investigadores afirmam que ele tentou resolvê-lo da mesma forma que os humanos. O sistema ChatGPT foi testado por especialistas da Universidade de Cambridge e da Universidade Hebraica de Jerusalém com um desafio clássico da Grécia antiga. A forma como a inteligência artificial respondeu a este problema gerou um intenso debate sobre a sua capacidade de raciocínio.

O exercício escolhido foi o conhecido dilema de «duplicar o quadrado», relatado por Platão no século IV a.C. No texto, Sócrates pergunta a um jovem como duplicar a área de um quadrado. O erro do aluno, que consistiu em duplicar o comprimento dos lados em vez de usar a diagonal, tornou-se um exemplo clássico para discutir se o conhecimento matemático é inato ou adquirido com a experiência.

 

Há séculos que nos questionamos se o conhecimento é latente e inato ou aprendido e adquirido através da experiência, e um novo projeto de investigação está a fazer a mesma pergunta sobre a IA.

Os académicos consideraram que este problema era ideal porque a solução não era óbvia e, como não se baseava em imagens, dificilmente poderia ter aparecido nos dados de treino do ChatGPT. O objetivo era verificar se o modelo era capaz de chegar a uma solução razoável sem se basear em informações prévias.

Respostas semelhantes às humanas

O resultado surpreendeu os investigadores: o sistema foi capaz de formular uma explicação válida. Posteriormente, ao modificar o problema com um retângulo, o ChatGPT chegou a uma conclusão incorreta, um erro comparável ao que um aluno cometeria num processo de aprendizagem.

“Quando nos deparamos com um novo problema, o nosso instinto é tentar coisas com base na experiência anterior. Na nossa experiência, o ChatGPT pareceu agir de maneira semelhante”, disse Nadav Marco, investigador visitante em Cambridge.

De acordo com Marco, a probabilidade de essas respostas estarem nos dados de treino era “praticamente nula”, o que reforça a ideia de que o sistema estava a improvisar a partir do diálogo mantido. Esta característica aproxima-o da forma como os humanos geram hipóteses e testam as suas próprias conclusões.

A zona de desenvolvimento próximo

O professor Andreas Stylianides relacionou esse comportamento com a zona de desenvolvimento próximo, um conceito da pedagogia que descreve a diferença entre o que um aluno já domina e o que pode aprender com orientação. De forma inesperada, o ChatGPT parecia aplicar esse mesmo mecanismo, elaborando novas propostas sem se limitar a repetir dados.

O estudo, publicado na revista International Journal of Mathematical Education in Science and Technology, destaca que ainda não se pode afirmar que a inteligência artificial pensa como uma pessoa. No entanto, ele aponta que esse tipo de comportamento apresenta certos paralelos.

Alisia Pereira/ author of the article

Escrevo artigos, partilho ideias simples que tornam a vida mais fácil.

cfeelings