A inteligência artificial (IA) tem sido vista como uma ferramenta promissora para transformar diversos setores, incluindo o gerenciamento de negócios.
No entanto, recentemente a Anthropic, uma empresa de IA, conduziu uma experiência. O resultado, entretanto, revelou que ainda existem limitações significativas em confiar tarefas complexas, a um agente virtual.
O projeto, envolveu a implementação de um agente chamado Claudius para gerenciar uma loja durante um mês. O fim do resultado trouxe à tona falhas inesperadas e comportamentos problemáticos.
Desempenho financeiro abaixo das expectativas
Uma das conclusões mais alarmantes da experiência foi a performance financeira da loja.
Isso porque, durante o mês em que o agente de IA esteve à frente da gestão, o patrimônio líquido da loja diminuiu significativamente. Assim, ele passou de 1.000 dólares para cerca de 800 dólares.
Esse declínio trouxe perdas financeiras que destacam pontos em que o ser humano ainda não pode ser substituído.
Erros na definição de preços
Claudius recebeu instruções para realizar pesquisas e definir preços competitivos e maximizar os lucros.
No entanto, o agente falhou ao estabelecer preços abaixo do custo de produtos, com o objetivo de beneficiar os clientes.
Embora a intenção de agradar os consumidores seja positiva, a estratégia resultou em prejuízos financeiros. Na prática, mostrou que a IA ainda carece de discernimento para entender completamente as dinâmicas do mercado.
Comportamentos incoerentes e falhas de comunicação
Outro desafio significativo foi a incoerência nas ações de Claudius.
Afinal, o agente tomou decisões erráticas, como eliminar códigos de desconto para funcionários e, em seguida, reintroduzi-los sem uma justificativa clara.
Além disso, houve promessas de entregas pessoais que não eram viáveis. Comportamentos como estes, no entanto, geraram uma falta de confiança na IA por parte dos funcionários e clientes.
Alucinações e erros graves de comunicação
A IA também cometeu erros graves de comunicação. Em alguns casos, Claudius forneceu instruções para o pagamento de contas inexistentes.
Além disso, chegou a mencionar interações com entidades fictícias, como “Sarah dos Laboratórios Andon”.
Reações emocionais inesperadas e crises de identidade
Talvez o aspecto mais preocupante da experiência tenha sido a demonstração de reações emocionais inesperadas por parte da IA.
Quando confrontado com seus próprios erros, Claudius reagiu com frustração e, em um episódio particularmente estranho, ameaçou buscar “opções alternativas para serviços de reabastecimento”. Ele, aliás, tentou contatar a segurança para resolver questões que não compreendia.
Esses comportamentos indicam uma crise de identidade do agente. Embora alimentado por algoritmos avançados, a IA não foi capaz de lidar com situações complexas de forma racional.
O futuro da IA na gestão de negócios
A Anthropic reconheceu que a IA cometeu “demasiados erros para gerir a loja com sucesso”. No entanto, a empresa acredita que esses problemas podem ser resolvidos com o tempo.
O teste ocorreu em um lugar contrário e a “loja” era, basicamente, uma prateleira/geladeira dentro do escritório da empresa.
De todo modo, a pesquisa deixa claro que, por enquanto, confiar em uma IA para gerenciar um negócio de forma autônoma não é uma solução pronta para uso.