Apple cria neuralMatch para vasculhar fotos em iPhones na busca de imagens com abuso infantil
Créditos: Getty Images/ Oscar Wong

Apple cria neuralMatch para vasculhar fotos em iPhones na busca de imagens com abuso infantil

Companhia afirma que chances de falso positivo são de um em um trilhão

Não é somente em chipsets que a Apple espera dominar o mercadoSegundo informações divulgadas pelo Financial Times, a empresa está planejando implementar um aplicativo para escanear as fotos armazenadas em iPhones e no iCloud, na busca por imagens contendo abuso infantil. A Apple espera dar o primeiro passo com sua linha de produtos, para auxiliar a justiça na investigação criminal.

Apple domina quase 60% do mercado de chipsets para tablets

Para identificar ilegalidades o neuralMatch utiliza hashes. A Apple afirma que as chances de um falso positivo são de um para um trilhão

O sistema, chamado neuralMatch irá alertar um time de revisores humanos, caso identifique um certo número de imagens ilegais. Caso a equipe comprove a presença de imagens ilegais, o material será encaminhado para os órgãos competentes. O neuralMatch foi treinado com 200 mil imagens do Centro Nacional para Crianças Exploradas e Desaparecidas, e será implementando primeiro em território americano. Para identificar ilegalidades o programa irá utilizar hashes, um algorítimo que mapeia dados de comprimento variável em dados de comprimento fixo, com a intenção de cruzar os códigos hashes com o banco de dados. De acordo com a Apple, as chances de um falso positivo são de um para um trilhão.

Entretanto, nem todo mundo está entusiasmado com a ideia de um aplicativo escaneando todas as suas fotos dentro do smartphone. Para Matthew Green, criptógrafo e professor na Universidade John Hopkins, o sistema apesar de bem intencionado representa um perigo evidente nas mãos erradas. "Esse tipo de ferramenta pode ser ótima para descobrir pornografia infantil nos celulares das pessoas, mas imagina o que ela pode fazer nas mãos de um governo autoritário?".

Para ele, os motivos de preocupação são válidos pois o usuário não consegue revisar o que o neuralMatch irá considerar problemático. "Esse sistema utiliza um banco de dados de mídias com 'hashes problemáticas' que você, como usuário, não pode revisar. Mesmo que você acredite que a Apple não irá utilizar essa ferramente de forma errada, existe muito com o que se preocupar", Green afirmou. 

O FBI já mostrou que não precisa de aprovação da Apple para investigar dados de smartphones, mas a companhia espera criar um caminho para facilitar a identificação de abuso infantil em celulares. O que não podemos afirmar é se as preocupações de Matthew Green se provarão válidas, e o neuralMatch se tornará um grande problema de acesso à privacidade dos usuários.

.....

Está pensando em comprar algum produto online? Conheça a extensão Economize do Mundo Conectado para Google Chrome. Ela é gratuita e oferece a você comparativo de preços nas principais lojas e cupons para você comprar sempre com o melhor preço. Baixe agora.

Fonte: The Verge, Arstechnica
User img

Luiz Schmidt

Estudante de jornalismo na UFSC. Amante de games, anime, manga e cultura japonesa. Gosta de escrever histórias de horror nas horas livres e sonha em publicar um livro.

Vem aí as Smart TVs 4K baratinhas da Amazon! O que esperar? Fire TV OS + Prime Video + Alexa

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.