A inteligência artificial é uma realidade e esse avanço assusta muitas pessoas. Por mais que muitos especialistas já questionem a utilização dessa tecnologia, os impactos não serão catastróficos como muito pensam. Lógico que deverão que ocorrer adequações, como ocorreram com outros avanços. Contudo, o que assusta é que já se observa casos de cibercriminosos que utilizam dessa inteligência para aprimorar seus golpes.

Exemplo é o ChatGPT, a ferramenta é impressionante em suas funções. Lembrando que o mesmo ainda não possui a capacidade de realizar ações maliciosas por conta própria, ele apenas gera respostas a perguntas com base no que recebe. E é nesse ponto que está o grande risco.

Já ocorrem casos de pessoas mal-intencionadas, os cibercriminosos, que buscam usar o ChatGPT para gerar conteúdos falsos ou enganosos, como fake news, phishing, scams ou spam. Com isso eles eliminam uma das principais característica de muitas tentativas de golpes, que são os textos mal escritos e que possuem erros gramaticais.

Ponto importante a ser reforçado, por mais que possa ter esse uso malicioso, cuidado para não culpar quem não é o responsável, o ChatGPT e outros chats, são apenas modelos de linguagem e ferramentas de conhecimento, pesquisa, não pensam sozinhos.

Um ponto importante é que sejam adotadas medidas adequadas de segurança cibernética e implementadas ações para impedir o uso indevido de todas as ferramentas que possam ajudar os cibercriminosos. Não é trabalho simples, mas é necessário.

Isso reforça em muito a necessidade de regulamentação de redes sociais e de implementações de uma estrutura investigativa contra essa nova tendência criminosa. O uso malicioso de tais ferramentas é uma questão de responsabilidade humana, assim o combate se deve dar por meio da justiça.

É fundamental que as autoridades e organizações que lidam com a segurança cibernética estejam desenvolvendo constantemente novas formas, técnicas e tecnologias para o combate desses criminosos, aumentando a segurança online.

Ou seja, é claro que ferramentas acessíveis como o ChatGPT estão abertas para uso malicioso, e o combate é um desafio que precisa estar constantemente em evolução. É importante que se tenha também no desenvolvimento da ferramenta esses cuidados.

A empresa que desenvolveu o ChatGPT, a OpenAI, se diz comprometida com a ética e a responsabilidade no uso inteligência artificial. Tanto é que a ferramenta é projetada para fornecer informações e responder a perguntas de forma útil e respeitosa.

Mas por mais que se tenha a construção com medidas de segurança para evitar o uso malicioso, o risco sempre existe, e é importante que todos os usuários sejam responsáveis e conscientes ao usar a tecnologia de maneira apropriada.

Também é fundamental por parte dos usuários a atenção e a prevenção cada vez maior em relação ao uso de ferramentas tecnológicas. Isso é o grande caminho para fugir de golpes, e o conhecimento e a divulgação dos golpes do mercado é cada vez mais imprescindível. Outro ponto é que nosso processo educacional também precisa se adequar a esse novo momento.

É papel da sociedade trabalhar juntos para combater o cibercrime, promover a segurança e proteger nossos sistemas e dados digitais. Se o ChatGPT for usado para cometer crimes cibernéticos, isso não será uma consequência inevitável de sua tecnologia ou habilidades, mas sim uma escolha consciente e criminosa de indivíduos que escolheram usar o sistema de maneira ilegal.

Afonso Morais – CEO e Fundador da Morais Advogados Associados (empresa associada ao Grupo Alliance) e especialista em combate a fraudes e em recuperação de crédito empresarial. Pai de uma menina de 10 anos. Está à frente do podcast Falando de Fraudes com Afonso Morais.

Deixe uma resposta

Your email address will not be published. Required fields are marked *