O modelo GPT-4.5 da OpenAI pode se passar por humano e enganar pessoas durante interações na maioria das vezes. É o que concluiu um estudo envolvendo o teste de Turing conduzido pela Universidade da Califórnia em San Diego (UCSD), nos Estados Unidos, que também teve a participação dos modelos GPT-4o, Llama 3.1-405B da Meta e o antigo bot Eliza.
No experimento envolvendo 300 pessoas, que avaliou a capacidade das máquinas de imitar o comportamento humano e foi baseado no teste criado pelo matemático Alan Turing em 1950, um avaliador humano interagiu com duas testemunhas, outra pessoa e o bot, por meio de texto. O objetivo era saber se o interrogador conseguiria identificar quem era a IA.
Redirecionando…
Compartilhe isso:
- Clique para compartilhar no Facebook(abre em nova janela)
- Clique para compartilhar no X(abre em nova janela)
- Clique para enviar um link por e-mail para um amigo(abre em nova janela)
- Clique para compartilhar no Pinterest(abre em nova janela)
- Clique para compartilhar no Telegram(abre em nova janela)
- Clique para compartilhar no Threads(abre em nova janela)
- Clique para compartilhar no WhatsApp(abre em nova janela)