O problema é considerado um desafio clássico da Grécia antiga. Os investigadores afirmam que ele tentou resolvê-lo da mesma forma que os humanos. O sistema ChatGPT foi testado por especialistas da Universidade de Cambridge e da Universidade Hebraica de Jerusalém com um desafio clássico da Grécia antiga. A forma como a inteligência artificial respondeu a este problema gerou um intenso debate sobre a sua capacidade de raciocínio.
O exercício escolhido foi o conhecido dilema de «duplicar o quadrado», relatado por Platão no século IV a.C. No texto, Sócrates pergunta a um jovem como duplicar a área de um quadrado. O erro do aluno, que consistiu em duplicar o comprimento dos lados em vez de usar a diagonal, tornou-se um exemplo clássico para discutir se o conhecimento matemático é inato ou adquirido com a experiência.
Há séculos que nos questionamos se o conhecimento é latente e inato ou aprendido e adquirido através da experiência, e um novo projeto de investigação está a fazer a mesma pergunta sobre a IA.
Os académicos consideraram que este problema era ideal porque a solução não era óbvia e, como não se baseava em imagens, dificilmente poderia ter aparecido nos dados de treino do ChatGPT. O objetivo era verificar se o modelo era capaz de chegar a uma solução razoável sem se basear em informações prévias.
Respostas semelhantes às humanas
O resultado surpreendeu os investigadores: o sistema foi capaz de formular uma explicação válida. Posteriormente, ao modificar o problema com um retângulo, o ChatGPT chegou a uma conclusão incorreta, um erro comparável ao que um aluno cometeria num processo de aprendizagem.
“Quando nos deparamos com um novo problema, o nosso instinto é tentar coisas com base na experiência anterior. Na nossa experiência, o ChatGPT pareceu agir de maneira semelhante”, disse Nadav Marco, investigador visitante em Cambridge.
De acordo com Marco, a probabilidade de essas respostas estarem nos dados de treino era “praticamente nula”, o que reforça a ideia de que o sistema estava a improvisar a partir do diálogo mantido. Esta característica aproxima-o da forma como os humanos geram hipóteses e testam as suas próprias conclusões.
A zona de desenvolvimento próximo
O professor Andreas Stylianides relacionou esse comportamento com a zona de desenvolvimento próximo, um conceito da pedagogia que descreve a diferença entre o que um aluno já domina e o que pode aprender com orientação. De forma inesperada, o ChatGPT parecia aplicar esse mesmo mecanismo, elaborando novas propostas sem se limitar a repetir dados.
O estudo, publicado na revista International Journal of Mathematical Education in Science and Technology, destaca que ainda não se pode afirmar que a inteligência artificial pensa como uma pessoa. No entanto, ele aponta que esse tipo de comportamento apresenta certos paralelos.