Nossa privacidade está em declínio e isso é um fato. Por isso, essa aplicação sendo desenvolvida pela Universidade de Chicago que tenta enga...
Nossa privacidade está em declínio e isso é um fato. Por isso, essa aplicação sendo desenvolvida pela Universidade de Chicago que tenta enganar os sistemas de visão computacional se mostrou uma interessante forma de resistência no mundo digital.
A start-up Clearview AI coletou 3 bilhões de fotos online para criar uma ferramenta para a polícia que poderia guiá-la a partir de um rosto em uma imagem direto para uma conta do Facebook, revelando a identidade de uma pessoa. O Clearview AI demonstra assim como é fácil criar ferramentas invasivas para monitorar e rastrear os usuários usando suas próprias fotos sem sua permissão ou consentimento por intermédio do chamado deep learning (aprendizado profundo). E isso é só um de vários exemplos.
Pensando nisso, o SAND Lab da Universidade de Chicago desenvolveu o Fawkes, um software de código aberto (e que executa localmente no seu computador sem precisar de conexão à internet) que permite às pessoas limitar a maneira como suas próprias imagens podem ser usadas para rastreá-las.
Simplificadamente, Fawkes coleta suas imagens pessoais e faz pequenas alterações a nível de pixel que são invisíveis ao olho humano, em um processo chamado de ocultação de imagens. É semelhante ao algoritmo de compressão usado pelas imagens do tipo JPEG (extensão .jpg) onde pequenas alterações são feitas nas cores de determinados pixels para permitir tornar o arquivo menor e que são quase indetectáveis apenas olhando para a imagem gerada. Só que o objetivo aqui é confundir o reconhecimento de imagens automático.
Você pode usar essas fotos "camufladas" como faria normalmente, compartilhá-las nas mídias sociais, enviá-las a amigos, imprimi-las ou exibi-las em dispositivos digitais, da mesma forma que faria com qualquer outra foto. A diferença é que quando alguém tentar usar essas fotos para criar um modelo de reconhecimento facial, imagens "camufladas" ensinarão ao modelo uma versão altamente distorcida do que faz você parecer com você. O resultado não é tão facilmente detectável por seres humanos mas causa erros no treinamento do modelo.
Atualmente, o Fawkes está na versão 0.3, e corrigiu boa parte dos problemas apontado por um artigo do New York Times sobre o aplicativo (como o surgimento de bigodes em fotos femininas, por exemplo) mas segue sendo desenvolvido e, de acordo com seus desenvolvedores, ele é...
O trabalho será apresentado no próximo Simpósio de Segurança da USENIX , que será realizado de 12 a 14 de agosto. Que testar? O link a seguir baixa a versão 0.3.
[ Fawkes v0.3 ##download##]
Fonte: Sand Labs
[Visto no Brasil Acadêmico]
A start-up Clearview AI coletou 3 bilhões de fotos online para criar uma ferramenta para a polícia que poderia guiá-la a partir de um rosto em uma imagem direto para uma conta do Facebook, revelando a identidade de uma pessoa. O Clearview AI demonstra assim como é fácil criar ferramentas invasivas para monitorar e rastrear os usuários usando suas próprias fotos sem sua permissão ou consentimento por intermédio do chamado deep learning (aprendizado profundo). E isso é só um de vários exemplos.
Pensando nisso, o SAND Lab da Universidade de Chicago desenvolveu o Fawkes, um software de código aberto (e que executa localmente no seu computador sem precisar de conexão à internet) que permite às pessoas limitar a maneira como suas próprias imagens podem ser usadas para rastreá-las.
Simplificadamente, Fawkes coleta suas imagens pessoais e faz pequenas alterações a nível de pixel que são invisíveis ao olho humano, em um processo chamado de ocultação de imagens. É semelhante ao algoritmo de compressão usado pelas imagens do tipo JPEG (extensão .jpg) onde pequenas alterações são feitas nas cores de determinados pixels para permitir tornar o arquivo menor e que são quase indetectáveis apenas olhando para a imagem gerada. Só que o objetivo aqui é confundir o reconhecimento de imagens automático.
Você pode usar essas fotos "camufladas" como faria normalmente, compartilhá-las nas mídias sociais, enviá-las a amigos, imprimi-las ou exibi-las em dispositivos digitais, da mesma forma que faria com qualquer outra foto. A diferença é que quando alguém tentar usar essas fotos para criar um modelo de reconhecimento facial, imagens "camufladas" ensinarão ao modelo uma versão altamente distorcida do que faz você parecer com você. O resultado não é tão facilmente detectável por seres humanos mas causa erros no treinamento do modelo.
Atualmente, o Fawkes está na versão 0.3, e corrigiu boa parte dos problemas apontado por um artigo do New York Times sobre o aplicativo (como o surgimento de bigodes em fotos femininas, por exemplo) mas segue sendo desenvolvido e, de acordo com seus desenvolvedores, ele é...
100% eficaz contra modelos de reconhecimento facial de ponta (API do Microsoft Azure Face, Amazon Rekognition e Face ++).
O trabalho será apresentado no próximo Simpósio de Segurança da USENIX , que será realizado de 12 a 14 de agosto. Que testar? O link a seguir baixa a versão 0.3.
[ Fawkes v0.3 ##download##]
Fonte: Sand Labs
[Visto no Brasil Acadêmico]
Comentários