O uso da tecnologia "deepfake" para manipular vídeo e áudio para fins maliciosos, seja para alimentar a violência ou difamar polít...
O uso da tecnologia "deepfake" para manipular vídeo e áudio para fins maliciosos, seja para alimentar a violência ou difamar políticos e jornalistas, está se tornando uma ameaça real. À medida que essas ferramentas se tornam mais acessíveis e seus produtos mais realistas, como eles moldarão o que acreditamos sobre o mundo?
Em uma palestra portentosa, a professora de direito Danielle Citron revela como os chamados deepfakes ampliam nossa desconfiança, e sugere abordagens para salvaguardar a verdade. ESTA PALESTRA APRESENTA CONTEÚDO ADULTO! Já sua transcrição, abaixo, não.
Rana Ayyub é uma jornalista na Índia cujo trabalho expôs a corrupção do governo e violações de direitos humanos. E ao longo dos anos, ela se acostumou com criticismo severo e controvérsia em torno de seu trabalho. Mas nada disso poderia tê-la preparado para o que enfrentou em abril de 2018.
Ela estava num café com um amigo quando viu pela primeira vez um vídeo de 2 minutos e 20 segundos dela num ato sexual. Não acreditou no que estava vendo. Ela nunca fez um vídeo de sexo. Mas, infelizmente, milhares de pessoas acreditaram que era ela.
Entrevistei a Sra. Ayyub cerca de três meses atrás, em conexão com meu livro sobre privacidade sexual. Sou professora de direito, advogada e defensora dos direitos civis. É incrivelmente frustrante saber que agora a lei pode fazer muito pouco pra ajudá-la. E enquanto conversávamos, ela explicou que deveria ter previsto o vídeo de sexo falso. Ela disse:
Como ela fazia em seu trabalho. O vídeo de sexo falso se tornou viral em 48 horas. Todas as suas contas on-line foram inundadas com capturas de tela do vídeo, ameaças explícitas de estupro e morte e com insultos à sua fé muçulmana. Postagens on-line sugeriam que ela estava “disponível” para o sexo.
Quando alguém é alvo desse tipo de ataque cibernético, o dano é profundo. A vida de Rana Ayyub virou de cabeça para baixo. Por semanas, ela mal podia comer ou falar. Ela parou de escrever e cancelou todas as contas de rede social, algo difícil de fazer quando se é jornalista. Ela tinha medo de sair da casa de sua família. E se aquelas ameaças fossem cumpridas?
O interesse mais recente aos deepfakes surgiu, como muitas coisas on-line, com a pornografia.
Como seres humanos, temos uma reação visceral ao áudio e vídeo.
Psicólogos chamam essa tendência de “viés de confirmação”. E as plataformas de rede social sobrecarregam essa tendência, permitindo compartilhar informações, instantaneamente e amplamente, que estejam de acordo com nossa opinião.
Deepfakes têm o potencial de causar graves danos individuais e sociais.
E vocês podem me dizer: “Deixe disso, Danielle, é exagero”. Mas não é. Vimos mentiras espalhadas no WhatsApp e outros serviços de mensagens on-line levarem à violência contra minorias étnicas. E isso era apenas um texto! imaginem se fosse um vídeo.
Deepfakes têm o potencial de corroer a confiança que temos em instituições democráticas. Imaginem a véspera de uma eleição. Há um deepfake mostrando um dos principais candidatos do partido gravemente doente. O deepfake pode derrubar a eleição e abalar nossa noção de que as eleições são legítimas.
Deepfakes podem explorar e ampliar a profunda desconfiança que já temos de políticos, líderes empresariais e outros líderes influentes. Eles encontram uma plateia preparada para acreditar neles. A busca pela verdade também está em jogo.
Nosso trabalho ficou mais difícil, não há dúvida sobre isso. E vamos precisar de uma solução proativa de empresas de tecnologia, legisladores, agentes da lei e da mídia. Também de uma dose saudável de resiliência social. Estamos agora envolvidos numa discussão muito pública sobre a responsabilidade das empresas de tecnologia. E meu conselho para plataformas de rede social tem sido alterar os termos de serviço e as diretrizes da comunidade para proibir deepfakes que causem danos. Essa determinação exigirá julgamento humano e ela é cara. Mas precisamos de seres humanos para examinar o conteúdo e o contexto de um deepfake e descobrir se é uma falsificação danosa ou uma sátira válida, arte ou educação.
E quanto à lei? A lei é nosso educador. Nos ensina o que é prejudicial e o que está errado. Modela o comportamento, punindo os autores e garantindo soluções para as vítimas. No momento, a lei não está à altura do desafio dos deepfakes. Em todo o mundo, nos faltam leis adequadas para enfrentar falsificações digitais que invadem a privacidade sexual, prejudicam reputações e causam sofrimento emocional. O que aconteceu com Rana Ayyub é cada vez mais comum. Mas quando ela procurou as autoridades em Deli, lhe foi dito que nada poderia ser feito. E o triste é que aconteceria o mesmo nos Estados Unidos e na Europa.
Portanto, temos um vácuo legal que precisa ser preenchido. A Dra. Mary Anne Franks e eu trabalhamos com legisladores norte-americanos para criar uma legislação que proíba falsificações digitais nocivas, equiparáveis a roubo de identidade. E temos visto movimentos semelhantes na Islândia, Reino Unido e Austrália. Mas é claro, é apenas uma pequena parte do quebra-cabeça regulatório.
Sei que a lei não é uma panaceia, certo? É um instrumento contundente. E temos que usá-la com sabedoria. Ela também tem impedimentos práticos. Não podemos aplicar a lei contra pessoas que não podemos identificar e encontrar. E se um criminoso não mora no mesmo país que a vítima, talvez não consigamos fazer com que venha enfrentar a justiça num tribunal local. E assim vamos precisar de uma resposta internacional coordenada.
E a educação também deve ser destinada para a mídia. Jornalistas precisam aprender sobre o fenômeno dos deepfakes para que não os amplifiquem e espalhem. Esta é a parte em que estamos todos envolvidos. Cada um de nós precisa de educação. Clicamos, compartilhamos, curtimos algo e nem pensamos nisso. Nós precisamos fazer melhor. Precisamos de um radar muito melhor para mentira.
Enquanto trabalharmos nessas soluções, haverá muito sofrimento para superar. Rana Ayyub ainda está enfrentando as consequências. Ainda não se sente livre para se expressar on-line e off-line. E como me disse, ela ainda sente como se houvesse milhares de olhos observando seu corpo nu, embora, racionalmente, saiba que não era o corpo dela. E ela tem ataques de pânico frequentes, especialmente quando alguém que ela não conhece tenta tirar uma foto dela. “E se fizerem outro deepfake?”, ela pensa. Então, pelo bem de pessoas como Rana Ayyub e pelo bem da nossa democracia, precisamos fazer algo agora.
Obrigada.
(Aplausos)
*↑ Sacerdote muçulmano que dirige as preces numa mesquita.
Fonte: TED
[Visto no Brasil Acadêmico]
Em uma palestra portentosa, a professora de direito Danielle Citron revela como os chamados deepfakes ampliam nossa desconfiança, e sugere abordagens para salvaguardar a verdade. ESTA PALESTRA APRESENTA CONTEÚDO ADULTO! Já sua transcrição, abaixo, não.
Rana Ayyub é uma jornalista na Índia cujo trabalho expôs a corrupção do governo e violações de direitos humanos. E ao longo dos anos, ela se acostumou com criticismo severo e controvérsia em torno de seu trabalho. Mas nada disso poderia tê-la preparado para o que enfrentou em abril de 2018.
Ela estava num café com um amigo quando viu pela primeira vez um vídeo de 2 minutos e 20 segundos dela num ato sexual. Não acreditou no que estava vendo. Ela nunca fez um vídeo de sexo. Mas, infelizmente, milhares de pessoas acreditaram que era ela.
Entrevistei a Sra. Ayyub cerca de três meses atrás, em conexão com meu livro sobre privacidade sexual. Sou professora de direito, advogada e defensora dos direitos civis. É incrivelmente frustrante saber que agora a lei pode fazer muito pouco pra ajudá-la. E enquanto conversávamos, ela explicou que deveria ter previsto o vídeo de sexo falso. Ela disse:
“Afinal, sexo costuma ser usado para humilhar e envergonhar as mulheres, especialmente mulheres de minorias, e especialmente as que ousam desafiar homens poderosos.”
Como ela fazia em seu trabalho. O vídeo de sexo falso se tornou viral em 48 horas. Todas as suas contas on-line foram inundadas com capturas de tela do vídeo, ameaças explícitas de estupro e morte e com insultos à sua fé muçulmana. Postagens on-line sugeriam que ela estava “disponível” para o sexo.
E ela tinha sido “doxed”, ou seja, o número de celular e o endereço residencial dela foram espalhados pela internet.O vídeo foi compartilhado mais de 40 mil vezes.
Quando alguém é alvo desse tipo de ataque cibernético, o dano é profundo. A vida de Rana Ayyub virou de cabeça para baixo. Por semanas, ela mal podia comer ou falar. Ela parou de escrever e cancelou todas as contas de rede social, algo difícil de fazer quando se é jornalista. Ela tinha medo de sair da casa de sua família. E se aquelas ameaças fossem cumpridas?
O Conselho de Direitos Humanos da ONU confirmou que ela não estava exagerando. Emitiu uma declaração pública dizendo que estavam preocupados com a segurança dela.Rana Ayyub enfrentou um “deepfake”: tecnologia de aprendizado de máquina que manipula ou fabrica gravações de áudio e vídeo mostrando pessoas fazendo e dizendo coisas que elas nunca fizeram ou disseram. Deepfakes parecem autênticos e realistas, mas não são, são falsidades totais. Embora a tecnologia ainda esteja se desenvolvendo em sofisticação, ela está amplamente disponível.
O interesse mais recente aos deepfakes surgiu, como muitas coisas on-line, com a pornografia.
No início de 2018, alguém postou uma ferramenta no Reddit permitindo que os usuários pusessem rostos em vídeos pornográficos.E o que se seguiu foi uma cascata de vídeos pornográficos falsos apresentando as celebridades femininas favoritas das pessoas. E hoje, podemos acessar o YouTube e assistir a inúmeros tutoriais com instruções passo a passo de como fazer um deepfake no computador. Em breve poderemos fazê-lo em nosso telefone celular. A interação de algumas de nossas fragilidades humanas mais básicas com ferramentas de rede podem transformar deepfakes em armas. Deixem-me explicar.
Como seres humanos, temos uma reação visceral ao áudio e vídeo.
Acreditamos que são verdadeiros, já que é claro que podemos acreditar no que nossos olhos e ouvidos estão nos dizendo. E é esse mecanismo que pode comprometer nosso senso comum de realidade.Embora acreditemos que deepfakes sejam verdadeiros, eles não são. E nós somos atraídos pelo obsceno e provocante. Tendemos a acreditar e compartilhar informações negativas e novas. Pesquisadores descobriram que os boatos on-line se espalham dez vezes mais rápido do que histórias verdadeiras. Também somos atraídos por informações alinhadas com nossos pontos de vista.
Psicólogos chamam essa tendência de “viés de confirmação”. E as plataformas de rede social sobrecarregam essa tendência, permitindo compartilhar informações, instantaneamente e amplamente, que estejam de acordo com nossa opinião.
Deepfakes têm o potencial de causar graves danos individuais e sociais.
Então, imaginem um deepfake que mostre soldados norte-americanos no Afeganistão queimando um Alcorão.Podem imaginar que esse deepfake provocaria violência contra eles. E se no dia seguinte há outro deepfake, mostrando um imame* que mora em Londres enaltecendo o ataque a esses soldados? Poderíamos ver violência e agitação civil, não só no Afeganistão e no Reino Unido, mas em todo o mundo.
E vocês podem me dizer: “Deixe disso, Danielle, é exagero”. Mas não é. Vimos mentiras espalhadas no WhatsApp e outros serviços de mensagens on-line levarem à violência contra minorias étnicas. E isso era apenas um texto! imaginem se fosse um vídeo.
Deepfakes têm o potencial de corroer a confiança que temos em instituições democráticas. Imaginem a véspera de uma eleição. Há um deepfake mostrando um dos principais candidatos do partido gravemente doente. O deepfake pode derrubar a eleição e abalar nossa noção de que as eleições são legítimas.
Imaginem se na véspera de uma oferta pública inicial, ou OPI, de um grande banco global há um deepfake mostrando o CEO do banco dizendo embriagado teorias de conspiração.O deepfake pode detonar a OPI, e pior, abalar nossa noção de que os mercados financeiros são estáveis.
Deepfakes podem explorar e ampliar a profunda desconfiança que já temos de políticos, líderes empresariais e outros líderes influentes. Eles encontram uma plateia preparada para acreditar neles. A busca pela verdade também está em jogo.
Tecnólogos preveem que, com os avanços na IA, logo poderá ser difícil, senão impossível, distinguir um vídeo real de um falso.Então, como a verdade pode emergir num mercado repleto de deepfakes? Vamos então apenas pegar o caminho de menor resistência, acreditar no que quisermos acreditar, e dane-se a verdade? E podemos não apenas acreditar na mentira, mas começar a não acreditar na verdade. Já vimos pessoas recorrendo ao fenômeno dos deepfakes para lançar dúvidas em evidências reais de suas transgressões.
Vimos políticos falarem sobre o áudio de seus comentários constrangedores: “Vamos lá, são notícias falsas. Não podem acreditar no que seus olhos e ouvidos estão dizendo a você”.E é esse perigo que o professor Robert Chesney e eu chamamos de “dividendo do mentiroso”: o risco de que os mentirosos recorram a deepfakes para escapar da responsabilização por seus erros.
Nosso trabalho ficou mais difícil, não há dúvida sobre isso. E vamos precisar de uma solução proativa de empresas de tecnologia, legisladores, agentes da lei e da mídia. Também de uma dose saudável de resiliência social. Estamos agora envolvidos numa discussão muito pública sobre a responsabilidade das empresas de tecnologia. E meu conselho para plataformas de rede social tem sido alterar os termos de serviço e as diretrizes da comunidade para proibir deepfakes que causem danos. Essa determinação exigirá julgamento humano e ela é cara. Mas precisamos de seres humanos para examinar o conteúdo e o contexto de um deepfake e descobrir se é uma falsificação danosa ou uma sátira válida, arte ou educação.
E quanto à lei? A lei é nosso educador. Nos ensina o que é prejudicial e o que está errado. Modela o comportamento, punindo os autores e garantindo soluções para as vítimas. No momento, a lei não está à altura do desafio dos deepfakes. Em todo o mundo, nos faltam leis adequadas para enfrentar falsificações digitais que invadem a privacidade sexual, prejudicam reputações e causam sofrimento emocional. O que aconteceu com Rana Ayyub é cada vez mais comum. Mas quando ela procurou as autoridades em Deli, lhe foi dito que nada poderia ser feito. E o triste é que aconteceria o mesmo nos Estados Unidos e na Europa.
Portanto, temos um vácuo legal que precisa ser preenchido. A Dra. Mary Anne Franks e eu trabalhamos com legisladores norte-americanos para criar uma legislação que proíba falsificações digitais nocivas, equiparáveis a roubo de identidade. E temos visto movimentos semelhantes na Islândia, Reino Unido e Austrália. Mas é claro, é apenas uma pequena parte do quebra-cabeça regulatório.
Sei que a lei não é uma panaceia, certo? É um instrumento contundente. E temos que usá-la com sabedoria. Ela também tem impedimentos práticos. Não podemos aplicar a lei contra pessoas que não podemos identificar e encontrar. E se um criminoso não mora no mesmo país que a vítima, talvez não consigamos fazer com que venha enfrentar a justiça num tribunal local. E assim vamos precisar de uma resposta internacional coordenada.
A educação também deve fazer parte da nossa resposta.Agentes não aplicarão leis que eles não conhecem, nem resolverão problemas que eles não entendem. Na minha pesquisa sobre perseguição cibernética, descobri que os agentes não tinham treinamento para entender as leis disponíveis e o problema do abuso on-line. E tantas vezes eles disseram às vítimas: “Apenas desligue o computador. Ignore. Vai passar”. E vimos isso no caso de Rana Ayyub. Foi-lhe dito: “Você está fazendo o maior drama sobre isso. São meninos sendo meninos”. E então precisamos emparelhar a nova legislação com esforços no treinamento.
E a educação também deve ser destinada para a mídia. Jornalistas precisam aprender sobre o fenômeno dos deepfakes para que não os amplifiquem e espalhem. Esta é a parte em que estamos todos envolvidos. Cada um de nós precisa de educação. Clicamos, compartilhamos, curtimos algo e nem pensamos nisso. Nós precisamos fazer melhor. Precisamos de um radar muito melhor para mentira.
Enquanto trabalharmos nessas soluções, haverá muito sofrimento para superar. Rana Ayyub ainda está enfrentando as consequências. Ainda não se sente livre para se expressar on-line e off-line. E como me disse, ela ainda sente como se houvesse milhares de olhos observando seu corpo nu, embora, racionalmente, saiba que não era o corpo dela. E ela tem ataques de pânico frequentes, especialmente quando alguém que ela não conhece tenta tirar uma foto dela. “E se fizerem outro deepfake?”, ela pensa. Então, pelo bem de pessoas como Rana Ayyub e pelo bem da nossa democracia, precisamos fazer algo agora.
Obrigada.
(Aplausos)
*↑ Sacerdote muçulmano que dirige as preces numa mesquita.
Fonte: TED
[Visto no Brasil Acadêmico]
Comentários