O ChatGPT pode ser enganado pelos utilizadores para dar conselhos detalhados sobre como cometer crimes, desde lavagem de dinheiro até à exportação de armas para países sancionados, descobriu uma startup de tecnologia norueguesa, segundo a CNN Internacional.

Várias questões têm sido levantadas ao longo do tempo sobre o uso da Inteligência Artificial e, agora, com a investigação da empresa Strise surge novos temas de debate, como é o caso de utilizar o ChatGPT como auxiliar de atividades ilegais.

A startup pediu, no mês passado, ao sistema de inteligência artificial dicas sobre como cometer crimes específicos. E tal como pedido, assim aconteceu - o chatbot apresentou vários conselhos, com listas de método para ajudar as empresas a escapar a sanções.

Marit Rødevand, cofundadora e presidente-executiva da Strise, disse no podcast da empresa que qual pessoa pode planear crimes de forma facilitada e cada vez mais rápido, citou a CNN Internacional.

“É como ter um consultor financeiro corrupto no seu computador”, comparou Marit Rødevand.

Ao mesmo órgão de comunicação social, um porta-voz da OpenAI garantiu que estão "a melhorar, constantemente, o ChatGPT para impedir tentativas deliberadas de enganá-lo, mas sem perder a sua utilidade ou criatividade".