Inteligência Artificial

Samsung pede aos funcionários para não usarem ferramentas de IA

4 Comentários

O ChatGPT veio transformar o olhar do mundo perante a inteligência artificial (IA) e levantar muitas questões de segurança. A Samsung já pediu aos funcionários para que não recorram a estas ferramentas nos dispositivos que são propriedade da empresa.

Samsung pede aos funcionários para não usarem ferramentas de IA


A Samsung proibiu o uso de ferramentas de IA generativas como o ChatGPT nas suas redes internas e dispositivos de propriedade da empresa por temer que o upload de informações confidenciais para essas plataformas represente um risco à segurança, segundo avança o Bloomberg.

Este pedido foi comunicado à equipa num memorando onde é referido que esta será uma restrição temporária, enquanto a Samsung desenvolve ferramentas para “criar um ambiente seguro”, para usar tais sistemas inteligentes com segurança.

A produtividade e eficiência de qualquer empresa poderá ser melhorada com a colaboração destes sistemas, contudo, ainda têm que ser ultrapassados estes desafios.

O maior fator de risco é provavelmente o chatbot ChatGPT da OpenAI, que se tornou extremamente popular não apenas como um brinquedo para entretenimento, mas também como uma ferramenta importante para ajudar no trabalho.

Ao usar o ChatGPT para trabalhos como escrever respostas a e-mails ou resumir relatórios, poderão ser introduzidas informações confidenciais e sensíveis para a empresa, às quais a OpenAI pode ter acesso.

Afinal, que dados dos utilizadores recolhe o ChatGPT?

Os riscos de privacidade envolvidos no uso do ChatGPT variam de acordo com a forma como o utilizador acede ao serviço. Se uma empresa é a API do ChatGPT, as conversas com o chatbot não são visíveis para a equipa de suporte da OpenAI e não são usadas para treinar os modelos da empresa. No entanto, isso não se aplica ao texto inserido na interface geral da Web com recurso às suas definições padrão.

A empresa de IA refere explicitamente que analisa as conversas que os utilizadores têm com o ChatGPT para melhorar os seus sistemas e garantir que cumpra as políticas e requisitos de segurança. Ele aconselha os utilizadores a não “partilhar informações confidenciais nas suas conversas” e refere ainda que todas as conversas também podem ser usadas para treinar versões futuras do ChatGPT.

Apesar disso, há que referir que já existe disponível um modo incógnito, que preserva a privacidade dos utilizadores, nos pontos referidos acima.

OpenAI traz um novo modo incógnito ao ChatGPT para dar privacidade aos utilizadores

Autor: Maria Inês Coelho
Partilhar:
Também pode gostar

Comentários

4

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

  1. Avatar de compro essa também
    compro essa também

    Ainda pensei que era por alguma dica direta da google …

    ( http://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html )

  2. Avatar de Douglas Charles Cunha
    Douglas Charles Cunha

    Ué? Dias atrás a Samsung estava falando sobre abandonar o buscador Google como padrão e adotar o Bing.
    Bing hoje é movido por inteligência artificial.

    1. Avatar de Mr. Y
      Mr. Y

      Não tem nada a ver. A questão é que os funcionários poderão enviar informações confidenciais para essas ferramentas de IA.
      Essa regra pode-se aplicar a qualquer serviço? Lógico, por isso, é que esta política é para ser seguida com estas ferramentas.

  3. Avatar de Repara
    Repara

    A Samsung já tinha proibido – e levantado a proibição no início de abril.
    O Gizmodo, citando os media coreanos, diz que, entretanto. o pessoal da Samsung “vazou” no ChatGPT informação confidencial. En dois casos, para o ChatGPT resolver problemas de código defeituoso. Num, um funcionário da Samsung pediu a ajuda do ChatGPT para fazer o diagnóstico do código-fonte de uma base de dados de semicondutores. Noutro, o funcionário compartilhou código confidencial com o ChatGPT para encontrar correções para equipamentos defeituosos.
    No terceiro caso, o funcionário enviou uma reunião inteira para que o ChatGPT pudesse criar atas de reunião.
    Não deixa de ter graça 🙂