Inteligência Artificial · Notícias · Internet · Segurança

Sem saberem, funcionários divulgam segredos da empresa através do ChatGPT. Como evitá-lo?

4 Comentários

O ChatGPT democratizou verdadeiramente o acesso à Inteligência Artificial (IA), não apenas a estudantes, mas a toda a gente com acesso à Internet. Um novo relatório alerta, agora, que os funcionários divulgam, sem saberem informações sobre as empresas onde trabalham através do ChatGPT.



À medida que mais empresas adotam IA generativa como o ChatGPT, Copilot e Claude, com o objetivo de melhorarem a produtividade e o fluxo de trabalho, estão a descobrir que essas ferramentas estão a expor segredos da empresa a um ritmo alarmante.

De acordo com um novo relatório da Cyera, os chatbots de IA são, agora, a principal causa de fuga de dados no local de trabalho, ultrapassando, pela primeira vez, o armazenamento em nuvem e o e-mail.

De forma preocupante, a maioria dessas fugas está a acontecer discretamente, passando despercebidas pelas empresas.

A investigação mostra que quase 50% dos funcionários de empresas estão a usar IA generativa no trabalho, muitas vezes colando informações confidenciais, como informações financeiras, dados pessoais identificáveis e até documentos estratégicos, diretamente em chatbots de IA.

Apesar de este tipo de informação não dever ser partilhado com chatbots de IA, o fenómeno está a ocorrer por meio de contas pessoais e não geridas, como ChatGPT ou Gemini, tornando-as invisíveis para os sistemas de segurança corporativos.

No entanto, 77% dessas interações envolvem dados reais da empresa.

Chatbot, IA

Conforme a investigação, como os dados são partilhados por via de ações de copiar/ colar nas janelas de chat, e não por uploads diretos de arquivos, contornam completamente as ferramentas tradicionais de prevenção.

Outro relatório de 2025, conduzido pela LayerX, descobriu que 67% das interações de IA acontecem em contas pessoais, pelo que as equipas de TI não podem monitorizá-las ou restringi-las.

Como evitar esta partilha de dados através dos chatbots de IA

Os relatórios não sugerem proibir totalmente a IA, conforme compilado, mas antes alertar as empresas e os utilizadores para que reforcem os controlos, melhorem a visibilidade e forneçam supervisão crítica, nomeadamente por via de:

  • Bloquear o acesso à IA generativa a partir de contas pessoais;
  • Exigir o login único para todas as ferramentas de IA utilizadas em dispositivos da empresa;
  • Monitorizar palavras-chave sensíveis e a atividade da área de transferência;
  • Trate as interações de chat com o mesmo rigor que as transferências de ficheiros;
  • Se for um funcionário, não cole nada num chat de IA que não publicaria publicamente na Internet.

Uma vez que a IA é relativamente nova para todos os utilizadores comuns, os funcionários estão, também, a aprender a usar as ferramentas e a reconhecer as suas limitações.

Cabe, portanto, a cada empresa, gerir a introdução destas novas ferramentas nos ambientes de trabalho, de forma segura, e a cada utilizador compreender que um simples copiar/ colar pode ser suficiente para expor informação confidencial.

Autor: Ana Sofia Neto
Partilhar:
Também pode gostar

Comentários

4

Responder a Tug@Tek Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

  1. Avatar de Tug@Tek
    Tug@Tek

    No início ainda dei o benefício da dúvida de que esta tecnologia viria para servir a humanidade, mas rapidamente constatei que apenas serve o propósito de quem as cria…
    Não faltam já casos públicos de que tudo que se escreve nesses chats de IA não é privado e nem tem esse objetivo.
    Abram a pestana…
    Cada um deve ter o discernimento de usar ou não e de que forma

    1. Avatar de Zé Fonseca A.
      Zé Fonseca A.

      Não usem contas públicas.

    2. Avatar de Artilheiro
      Artilheiro

      As únicas contas, que eventualmente possam ter alguma privacidade, são as contas de equipa / empresariais. As outras é uma ilusão, acreditarem que existe privacidade.

  2. Avatar de Max
    Max

    Por razões de segurança, há empresas a proibir que os programadores – habitualmente de empresas terceirizadas, usem o ChatGPT ou outra IA. Isto obriga essas empresas, que prestam serviços de programação, a desenvolver a sua própria IA.
    Mas as falhas de segurança são múltiplas e estão por todo o lado. O caso clássico é o da Samsung que descobriu que um funcionário passava para o ChatGPT as atas de reuniões onde eram tomadas decisões estratégicas – para que lhe fizesse um resumo.