SOLUTI alerta para os riscos do uso do Chat GPT

No momento você está vendo SOLUTI alerta para os riscos do uso do Chat GPT
(NurPhoto / Colaborador/Getty Images)

Lançado em novembro de 2022, o algoritmo baseado em inteligência artificial Chat GPT3-3.5, criado pelo laboratório norte-americano OpenAI, ganhou recente notoriedade entre os profissionais que em maior ou menor grau lidam com tecnologia. Muito se fala das possibilidades da ferramenta, mas seu uso também traz riscos aos usuários ao expor informações pessoais sensíveis ou dados institucionais estratégicos.

Alexandre Torres, diretor de Tecnologia da Informação da SOLUTI, empresa de tecnologia com sede em Goiânia (GO) e atuação em toda as regiões do Brasil, aponta elevados riscos no compartilhamento de informações sensíveis na interação com o Chat GPT e outros tipos de inteligências artificiais e cita uma possível ação de risco. “Se eu pego uma planilha de faturamento da minha empresa e insiro esses dados em uma interface de IA para que ela seja formatada, por exemplo, não tenho como saber o que será feito com esses dados e quem terá acesso a eles”, alerta.

Para Alexandre Torres, as empresas precisam começar a ter essa preocupação e impor algumas restrições ao uso das IAs. “Algumas instituições proíbem que seus funcionários usem alguns sites de correção de texto, exatamente porque existe a possibilidade de alguma informação estratégica vazar, pois não sabemos se os dados que fornecemos podem ser utilizados para retroalimentar a inteligência artificial”, adverte.

Luiz Gustavo Torres, coordenador de E-commerce e Performance da SOLUTI, concorda que a exposição de dados na rede sempre representa algum risco. “Nós, como uma empresa de tecnologia com expertise em identidade digital, prezamos muito pela proteção de informações da forma mais eficiente possível”, ressalta.

Para o coordenador de e-commerce da SOLUTI, embora essa questão mereça a devida atenção, ele acredita que não se trata de um impeditivo para a incorporação massiva da tecnologia em nosso dia a dia. “Estamos observando que as big techs estão num movimento de descentralização da manutenção e do tratamento desses dados, mas temos no Brasil a Lei Geral de Proteção de Dados Pessoais (LGPD) e na Europa, por exemplo, essa legislação é ainda mais robusta”, ressalta Torres.

A popularização das ferramentas baseadas em inteligência artificial deve influenciar o ambiente regulatório do Brasil, que já prevê penalização a empresas que vazam informações, acrescenta o profissional. “Cabe a quem é o detentor dos dados resguardá-los com segurança. E também existem medidas de contingência em infraestrutura, criptografia, acessos limitados e outros. Vejo que o próprio processo natural de enquadramento às leis de proteção aos dados e esse movimento, de criar estruturas de segurança para esses dados, vão dar mais confiança aos usuários”, avalia Torres.

O que diz a IA

Profissionais de tecnologia da informação concordam que dados pessoais ou institucionais sensíveis não devem ser compartilhados com nenhum sistema de inteligência artificial. Mas e o próprio Chat GPT, o que tem a dizer sobre esses riscos?  Indagada sobre a questão, a plataforma responde que “há sim riscos potenciais de segurança e privacidade associados ao compartilhamento de informações sensíveis com qualquer sistema de IA, incluindo o Chat GPT. Embora os modelos de linguagem, como o GPT, sejam projetados para processar texto, é possível que informações confidenciais sejam incluídas em suas interações com o sistema”, alerta.

Para mitigar esses riscos, é importante usar o Chat GPT apenas com informações que o usuário também compartilharia publicamente, explica a IA. “Se você precisar interagir com o Chat GPT usando informações sensíveis, é recomendável que você use uma versão local do modelo em vez de enviar suas informações pela internet. Além disso, é importante avaliar cuidadosamente as políticas de privacidade e segurança de qualquer serviço que use o GPT ou outro modelo de IA antes de compartilhar informações pessoais ou empresariais sensíveis”, recomenda a ferramenta.

Deixe um comentário