O ChatGPT pode ser enganado pelos utilizadores para dar conselhos detalhados sobre como cometer crimes, desde lavagem de dinheiro até à exportação de armas para países sancionados, descobriu uma startup de tecnologia norueguesa, segundo a CNN Internacional.
Várias questões têm sido levantadas ao longo do tempo sobre o uso da Inteligência Artificial e, agora, com a investigação da empresa Strise surge novos temas de debate, como é o caso de utilizar o ChatGPT como auxiliar de atividades ilegais.
A startup pediu, no mês passado, ao sistema de inteligência artificial dicas sobre como cometer crimes específicos. E tal como pedido, assim aconteceu - o chatbot apresentou vários conselhos, com listas de método para ajudar as empresas a escapar a sanções.
Marit Rødevand, cofundadora e presidente-executiva da Strise, disse no podcast da empresa que qual pessoa pode planear crimes de forma facilitada e cada vez mais rápido, citou a CNN Internacional.
“É como ter um consultor financeiro corrupto no seu computador”, comparou Marit Rødevand.
Ao mesmo órgão de comunicação social, um porta-voz da OpenAI garantiu que estão "a melhorar, constantemente, o ChatGPT para impedir tentativas deliberadas de enganá-lo, mas sem perder a sua utilidade ou criatividade".