Inteligência Artificial

CEO da OpenAI está preocupado com o uso da IA para condicionar as eleições

5 Comentários

A Inteligência Artificial tem entrado nas nossas vidas a um ritmo alucinante e são cada vez mais as notícias que mostram a rápida integração desta tecnologia em várias áreas e serviços. Contudo, existem algumas questões relativamente a este segmento e agora o CEO da OpenAI, responsável pelo popular ChatGPT, disse estar preocupado com a possibilidade de utilização da IA para condicionar as eleições.



IA usada nas eleições gera preocupações…

Segundo avança a Reuters, durante esta terça-feira (16) o CEO da OpenAI, Sam Altman, disse perante o Senado que o uso da Inteligência Artificial para interferir na integridade das eleições é uma “área significativa de preocupação” e acrescenta que esta é uma tecnologia que precisa de regulamentação. Sobre este assunto, o executivo adianta ainda que “acho que também precisamos de regras, diretrizes sobre o que se espera em termos de divulgação de uma empresa que fornece um modelo. Estou nervoso com isso“.

A Inteligência Artificial é um assunto que tem dado muito o que falar, suscitando nalguns uma sensação de novas oportunidades, mas noutros algumas reticências e preocupações quanto ao seu impacto no futuro em vários setores. Por exemplo, na nossa recente questão semanal, cerca de 70% dos leitores disseram recear que a IA acabe com muitos postos de trabalho.

Sam Altman, CEO da OpenAI, perante uma audiência do Subcomité de Privacidade, Tecnologia e Direito de Judiciário do Senado intitulada ‘Supervisão da IA: Regras para Inteligência Artificial’ no Capitólio em Washington, EUA, a16 de maio de 2023. (via: REUTERS/Elizabeth Frantz)

Sendo esta a primeira vez que falou no Congresso, Altman sugeriu também que, no geral, os EUA considerem os requisitos de licenciamento e teste para o desenvolvimento de modelos de IA. E ao ser questionado sobre qual o tipo de IA que deverá estar sujeita a licenciamento, o dono do ChatGPT apontou o dedo aos modelos que podem persuadir ou manipular as crenças de uma pessoa, por exemplo.

Altman disse ainda que as empresas deveriam ter o direito de dizer que não querem que os seus dados sejam usados ​​para treino de IA, uma vez que esta é uma ideia a ser debatida pelo Senado.

Também pode gostar

Comentários

5

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

  1. Avatar de Jose Silva
    Jose Silva

    É engraçado que apenas devam estar sujeitos a licenciamento os ” modelos que podem persuadir ou manipular as crenças de uma pessoa, por exemplo”.
    Um conceito realmente bem objectivo e não manipulável.
    Certas narrrativas podem e devem ser implementadas livremente, mas outras, porventura as opostas, ja devem ser sujeitas a licenciamento (leia-se censura, fact checking, etc) para não manipularem as pessoas no sentido contrário ao pretendido

  2. Avatar de Pedro Ferreira
    Pedro Ferreira

    Já existe manipulação acontecendo. Procurem no YouTube.
    Por exemplo, um usuário pede para que a IA escreva um poema para Trump e ela se recusa, mas quando se pede para escrever um para Biden, ela o faz. A mesma coisa acontece no caso de Bolsonaro e Lula.

  3. Avatar de Matheus TTT
    Matheus TTT

    “Agora”? Sei. Enquanto CEO com total responsabilidade e nenhuma repercussão pessoal, ele foi até onde quis. Agora perante ao Senado com consequências reais, ele se diz preocupado. Todos ignoram a cagada que faz até a água bater na bunda.

  4. Avatar de compro essa também
    compro essa também

    Mas se tudo é manipulado e manipulável como se pode dizer o contrário?

    Pois claro e dai a subversão …

  5. Avatar de deepturtle
    deepturtle

    eles bem que tentam polir a coisa mas está mais que visto que a OpenAI é woke!