Apple · Notícias

Apple enfrenta multa de $1,2 mil milhões por incapacidade de combater imagens de abuso

8 Comentários

Uma mulher de 27 anos, que foi vítima de abuso na infância, instaurou um processo judicial contra a Apple, onde acusa a empresa de não agir para impedir a contínua disseminação de imagens de abuso infantil. Este caso traz à tona os problemas que as empresas tecnológicas têm na gestão e denúncia de material de abuso sexual infantil (CSAM, originalmente) online.

Imagem ilustração sistema da Apple de combate à pornografia infantil no iCloud


O processo, submetido no Tribunal Distrital dos EUA no Norte da Califórnia, alega que a Apple não implementou integralmente uma ferramenta que havia prometido para identificar e remover imagens ilegais. A autora, que permanece anónima por questões de segurança, afirma que, apesar de a Apple ter desenvolvido um sistema chamado NeuralHash, a empresa abandonou a tecnologia após críticas de especialistas em cibersegurança.

De acordo com o The New York Times, a ação legal procura representar cerca de 2680 potenciais vítimas, com indemnizações que poderão ultrapassar os 1,2 mil milhões de dólares.

A queixa coloca em causa a abordagem da Apple no combate ao CSAM, mesmo quando a empresa tem  relatado um número significativamente inferior de ocorrências comparativamente a gigantes tecnológicos como o Google e o Facebook.

Este caso reflete uma tendência emergente da procura de estratégias legais que desafiem a responsabilidade das empresas tecnológicas relativamente a conteúdos gerados por utilizadores. Recentes decisões judiciais nos EUA indicam que as proteções anteriormente garantidas pela Secção 230 do Communications Decency Act podem não ser aplicáveis de forma tão ampla como antes.

Apple tem afirmado o seu compromisso no combate ao CSAM

Entre as medidas introduzidas pela empresa estão avisos de conteúdo na aplicação Mensagens e métodos para denunciar material nocivo. No entanto, especialistas jurídicos acreditam que o processo enfrenta obstáculos consideráveis.

Riana Pfefferkorn, investigadora no Instituto de Inteligência Artificial Centrada no Humano de Stanford, destacou que um veredito favorável à acusação poderia levantar questões constitucionais complexas sobre a obrigatoriedade governamental de monitorização de conteúdos.

O processo surge num contexto de preocupações crescentes sobre como as plataformas tecnológicas lidam com conteúdos sensíveis. Desde 2009, quando a Microsoft desenvolveu a tecnologia PhotoDNA para identificar imagens ilegais, as empresas têm enfrentado dificuldades em equilibrar as preocupações com a privacidade e os esforços de proteção de crianças.

 

Leia também:

Novidade absoluta da Apple a caminho? Prepara MacBook com conetividade 5G

Autor: Rui Neto
Partilhar:
Também pode gostar

Comentários

8

Responder a Vitor A. Mendes Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

  1. Avatar de Vitor A. Mendes
    Vitor A. Mendes

    Eu tinha visto isso aí. E foi impressionante a hipocresia de alguns quanto ao X/Twitter e ao BlueSky.

    Vou comprar pipoca e ver se baterão na Apple com a mesma força que estavam batendo no X/Twitter e BlueSky.

    1. Avatar de Pedro Pendo da Pedra de Rocha
      Pedro Pendo da Pedra de Rocha

      Se a Apple avançar e cheirar dentro dos mails dos utilizadores, vai aparecer um outro grupo de caça tesouros a querer sacar nota. é que nem tem nada a ver com o que acontece no facebook ou twitter/x que metes tudo no meso saco. Mas a Google tem tb uns milhares de pessoas a querer sacar nota também. Os estados unidos são campeoes de caçadores de indemnizações.

  2. Avatar de Rick IT
    Rick IT

    Vamos culpar as empresas pelos erros que as pessoas cometem. Ja agora multa para todos os que produzem facas por nao prevenirem quem as use em assaltos

    1. Avatar de Alexx
      Alexx

      E como a caneta é uma das melhores armas para o assassinato, porque não começar por proibir a BIC, ou os fabricantes de teclados, porque uma traulitada na móina de um sujeito pode fazer estragos sérios e AH, esquecia me, ratos sem fios já, pois esse fio/cordão é um convite a atentados ou a sugestões ao suicídio.

    2. Avatar de MLopes
      MLopes

      erros que as pessoas cometem?! quais erros?
      a pessoa é abusada e ela é que comete erros…?

      1. Avatar de 36.71Hz
        36.71Hz

        é abusada por quem? pela apple ou por outra pessoa? Exato.

        Como o @Rick IT disse e muito bem, á anos que andam atrás das gigantes tecnológicas porque é dinheiro fácil. Uma miuda suicida-se, os pais em vez de assumirem a culpa, processam o tiktok, um menor sofre de cyberbullying a culpa é dos pais que não sentiram a mudança no filho? Não, bora processar a META.

        É ridículo. Comecem a ser bons pais e deixem-se de tretas.

        1. Avatar de Mr. Y
          Mr. Y

          As empresas têm de ser responsáveis por criar mecanismos para evitar que essas imagens circulem.

          Aliás até aqui, no pplware e por esse motivo, existem moderadores.

          1. Avatar de Toni da Adega
            Toni da Adega

            Para existir moderadores ele precisam de ter acesso aos conteudos.
            Se isso acontecer vai estar tudo a gritar devido á violacao de privacidade.
            Não podem exigir que uma empresa monitorize os nosssos conteudos e ao mesmo tempo querer não tenham acesso ou conhecimento dos contudos