Algoritmo desenvolvido por Stanford consegue predizer com elevada precisão a orientação sexual dos indivíduos.
Algoritmo desenvolvido por Stanford consegue predizer com elevada precisão a orientação sexual dos indivíduos.
A pesquisa da Universidade de Stanford, EUA, afirma que o software reconhece características faciais relacionadas à orientação sexual que não são percebidas por observadores humanos. Como um Lombroso digital forçando a saída dos armários das redes sociais, esse programa levantou questões éticas e impulsionou protestos dos grupos LGBT (lésbicas, gays, bissexuais, transgêneros).
Esse projeto, que deverá ser publicado no Journal of Personality and Social Psychology, os pesquisadores treinaram um algoritmo inteligente usando fotos de mais de 14 mil americanos brancos, coletadas de um site de encontros amorosos.
Para isso os cientistas usaram de uma a cinco fotos de cada indivíduo considerando a sexualidade declarada por elas em seu perfil.
Segundo os pesquisadores, o programa conseguiu determinar se as pessoas eram homossexuais ou heterossexuais com alto percentual de acerto. Quando o algoritmo foi apresentado a duas fotos - uma declarada como de um homossexual e outra de um heterossexual - ele apontou corretamente a orientação sexual em 81% das vezes. Com as mulheres a taxa de acerto foi mais baixa, o programa apontou corretamente em 71% dos testes. Porém, quando eram submetidas todas as cinco fotos disponíveis no perfil, a taxa de acerto subia para 91% com os homens e 83% com as mulheres.
A razão, segundo os estudiosos envolvidos no estudo, é que "os rostos homossexuais tenderam a ter menos marcas de gênero".
Logo vieram os protestos de grupos LGBT:
Segundo Hallorand, as descobertas demonstradas no estudo poderiam servir como uma arma para prejudicar tanto os heterossexuais cujas sexualidades poderiam ser definidas erroneamente, como também as pessoas gays e lésbicas que estão em situações em que isto é perigoso.
A organização Human Rights Campaign (HRC) diz ter alertado a universidade há alguns meses sobre suas preocupações.
Michal Kosinski e Yilun Wang, os dois pesquisadores envolvidos no estudo rebatem as críticas dizendo que seus críticos estão realizando um "julgamento prematuro".
Kosinski e outros pesquisadores argumentaram que os poderosos governos e corporações já possuem essas capacidades tecnológicas e que é vital expor os possíveis perigos em um esforço para promover proteção de privacidade e salvaguardas regulatórias, que não acompanharam a IA.
Existe até um termo coloquial em inglês para essa capacidade de detectar a orientação sexual de alguém: “Gaydar” (algo como “radar gay”). E isso parece ser mesmo uma obsessão americana. Pois até o Google já disponibilizou seu “gaydar” como um serviço agregado ao seu motor de busca por um curto período de tempo. Ele já não está disponível, talvez para evitar polêmica, mas se quiser saber como ele agia seu funcionamento foi registrado aqui. Além disso, um genticista chegou a sugerir que até o redemoinho do cabelo poderia ser um "gaydar".
Segundo Michal Kosinski, a pesquisa vai além do reconhecimento de personalidade ou orientação sexual. Em entrevista ao jornal The Guardian, o pesquisador afirmou estar estudando as ligações entre características faciais e posição política, com resultados preliminares indicando que a IA é eficaz na descoberta da ideologia de uma pessoa com base no formato de seu rosto.
Isto é provavelmente porque as opiniões políticas parecem ser hereditárias , como a pesquisa mostrou, disse ele. Isso significa que as tendências políticas estão possivelmente ligadas à genética ou fatores de desenvolvimento, o que pode resultar em diferenças faciais detectáveis.
Kosinski disse que estudos anteriores descobriram que os políticos conservadores tendem a ser mais atraentes do que os liberais, possivelmente porque as pessoas de boa aparência têm mais vantagens e um tempo mais fácil em avançar na vida.
Segundo ele, a AI seria melhor para as pessoas que estão bem à direita ou à esquerda e seria menos eficaz para a grande população de eleitores no meio.
Kosinski também é conhecido por seu polêmico trabalho sobre perfil psicométrico, incluindo o uso de dados do Facebook para extrair inferências sobre personalidade. A empresa de dados Cambridge Analytica usou ferramentas similares para direcionar os eleitores em apoio à campanha de Donald Trump, provocando um debate sobre o uso de informações pessoais de eleitores nas campanhas.
É particularmente alarmante no contexto da justiça criminal, onde as máquinas podem tomar decisões sobre a vida das pessoas - como a duração de uma pena de prisão ou a libertação de alguém sob fiança - com base em dados tendenciosos de um tribunal e sistema de policiamento com preconceito racial em cada passo.
Kosinski previu que com um grande volume de imagens faciais de um indivíduo, um algoritmo poderia facilmente detectar se essa pessoa é um psicopata ou tem tendências criminais elevadas. Ele disse que isso era particularmente preocupante, uma vez que uma propensão para o crime não se traduz em ações criminais: "Mesmo as pessoas altamente dispostas a cometer um crime são muito improváveis de cometer um crime".
Ele também citou um exemplo referenciado no Economist - que primeiro relatou o estudo de orientação sexual - que clubes noturnos e estádios de esporte poderiam enfrentar a pressão para examinar os rostos das pessoas antes de entrar para detectar possíveis ameaças de violência.
Kosinski observou que, de certa forma, isso não era muito diferente dos guardas de segurança humanas que tomavam decisões subjetivas sobre pessoas que consideram muito perigosas - procurando entrar.
Na opinião desse blog, a tendência de se exterminar com a privacidade de maneira geral é um caminho sem volta. Assim, esse tipo de pesquisa é um alerta importante para que o público saiba o que é possível se obter com a IA e o impacto de sua utilização na prática. Condenar os pesquisadores é “matar o mensageiro”, embora os limites da pesquisa tenham que ser considerados. É bom você saber porque o seu seguro do carro está nas alturas ou porque você foi recusado pelo seu plano de saúde ou mesmo porque você foi rejeitado em algum recrutamento de uma empresa ou clube social. Essas formas de aumentar a realidade proporcionadas pelas onipresentes câmeras deixarão os pretensos segredos bem menos secretos e as pessoas mais expostas às interferências de governos e corporações em suas vidas.
Fonte: The Gardian
[Visto no Brasil Acadêmico]
A pesquisa da Universidade de Stanford, EUA, afirma que o software reconhece características faciais relacionadas à orientação sexual que não são percebidas por observadores humanos. Como um Lombroso digital forçando a saída dos armários das redes sociais, esse programa levantou questões éticas e impulsionou protestos dos grupos LGBT (lésbicas, gays, bissexuais, transgêneros).
Esse projeto, que deverá ser publicado no Journal of Personality and Social Psychology, os pesquisadores treinaram um algoritmo inteligente usando fotos de mais de 14 mil americanos brancos, coletadas de um site de encontros amorosos.
Para isso os cientistas usaram de uma a cinco fotos de cada indivíduo considerando a sexualidade declarada por elas em seu perfil.
Segundo os pesquisadores, o programa conseguiu determinar se as pessoas eram homossexuais ou heterossexuais com alto percentual de acerto. Quando o algoritmo foi apresentado a duas fotos - uma declarada como de um homossexual e outra de um heterossexual - ele apontou corretamente a orientação sexual em 81% das vezes. Com as mulheres a taxa de acerto foi mais baixa, o programa apontou corretamente em 71% dos testes. Porém, quando eram submetidas todas as cinco fotos disponíveis no perfil, a taxa de acerto subia para 91% com os homens e 83% com as mulheres.
A razão, segundo os estudiosos envolvidos no estudo, é que "os rostos homossexuais tenderam a ter menos marcas de gênero".
"Os homens gays tinham maxilas mais estreitas e narizes maiores, enquanto as lésbicas tinham mandíbulas maiores."
Logo vieram os protestos de grupos LGBT:
"Esta pesquisa não é ciência ou novidade, mas é uma descrição de padrões de beleza em sites de namoro que ignora grandes segmentos da comunidade LGBTQ (lésbicas, gays, bissexuais, transgêneros e queer), incluindo pessoas de cor, pessoas transgêneras, indivíduos mais velhos e outras pessoas LGBTQ que não querem publicar fotos em sites de namoro."
Jim Halloran. Diretor digital da Glaad, organização que monitora a mídia em assuntos relacionados ao público LGBT.
Segundo Hallorand, as descobertas demonstradas no estudo poderiam servir como uma arma para prejudicar tanto os heterossexuais cujas sexualidades poderiam ser definidas erroneamente, como também as pessoas gays e lésbicas que estão em situações em que isto é perigoso.
A organização Human Rights Campaign (HRC) diz ter alertado a universidade há alguns meses sobre suas preocupações.
"Stanford deve distanciar-se de tal ciência lixo, em vez de emprestar seu nome e credibilidade à pesquisa que é perigosamente falha e deixa o mundo - e neste caso, as vidas de milhões de pessoas - pior e menos seguro do que antes."
Ashland Johnson. Diretor de pesquisa da HRC
Michal Kosinski e Yilun Wang, os dois pesquisadores envolvidos no estudo rebatem as críticas dizendo que seus críticos estão realizando um "julgamento prematuro".
"Nossas descobertas podem estar erradas ... no entanto, os resultados científicos só podem ser desconsiderados por dados e replicações científicas, não por advogados bem-intencionados e funcionários de comunicação que não possuem formação científica."
Kosinski e outros pesquisadores argumentaram que os poderosos governos e corporações já possuem essas capacidades tecnológicas e que é vital expor os possíveis perigos em um esforço para promover proteção de privacidade e salvaguardas regulatórias, que não acompanharam a IA.
Existe até um termo coloquial em inglês para essa capacidade de detectar a orientação sexual de alguém: “Gaydar” (algo como “radar gay”). E isso parece ser mesmo uma obsessão americana. Pois até o Google já disponibilizou seu “gaydar” como um serviço agregado ao seu motor de busca por um curto período de tempo. Ele já não está disponível, talvez para evitar polêmica, mas se quiser saber como ele agia seu funcionamento foi registrado aqui. Além disso, um genticista chegou a sugerir que até o redemoinho do cabelo poderia ser um "gaydar".
Segundo Michal Kosinski, a pesquisa vai além do reconhecimento de personalidade ou orientação sexual. Em entrevista ao jornal The Guardian, o pesquisador afirmou estar estudando as ligações entre características faciais e posição política, com resultados preliminares indicando que a IA é eficaz na descoberta da ideologia de uma pessoa com base no formato de seu rosto.
Isto é provavelmente porque as opiniões políticas parecem ser hereditárias , como a pesquisa mostrou, disse ele. Isso significa que as tendências políticas estão possivelmente ligadas à genética ou fatores de desenvolvimento, o que pode resultar em diferenças faciais detectáveis.
Kosinski disse que estudos anteriores descobriram que os políticos conservadores tendem a ser mais atraentes do que os liberais, possivelmente porque as pessoas de boa aparência têm mais vantagens e um tempo mais fácil em avançar na vida.
Segundo ele, a AI seria melhor para as pessoas que estão bem à direita ou à esquerda e seria menos eficaz para a grande população de eleitores no meio.
“Um alto índice conservador ... seria uma previsão muito confiável de que esse sujeito é conservador.”
Kosinski também é conhecido por seu polêmico trabalho sobre perfil psicométrico, incluindo o uso de dados do Facebook para extrair inferências sobre personalidade. A empresa de dados Cambridge Analytica usou ferramentas similares para direcionar os eleitores em apoio à campanha de Donald Trump, provocando um debate sobre o uso de informações pessoais de eleitores nas campanhas.
A IA poderia detectar desde a predisposição a comportamentos perigosos a uma inteligência fora do comum.
É particularmente alarmante no contexto da justiça criminal, onde as máquinas podem tomar decisões sobre a vida das pessoas - como a duração de uma pena de prisão ou a libertação de alguém sob fiança - com base em dados tendenciosos de um tribunal e sistema de policiamento com preconceito racial em cada passo.
Kosinski previu que com um grande volume de imagens faciais de um indivíduo, um algoritmo poderia facilmente detectar se essa pessoa é um psicopata ou tem tendências criminais elevadas. Ele disse que isso era particularmente preocupante, uma vez que uma propensão para o crime não se traduz em ações criminais: "Mesmo as pessoas altamente dispostas a cometer um crime são muito improváveis de cometer um crime".
Ele também citou um exemplo referenciado no Economist - que primeiro relatou o estudo de orientação sexual - que clubes noturnos e estádios de esporte poderiam enfrentar a pressão para examinar os rostos das pessoas antes de entrar para detectar possíveis ameaças de violência.
Kosinski observou que, de certa forma, isso não era muito diferente dos guardas de segurança humanas que tomavam decisões subjetivas sobre pessoas que consideram muito perigosas - procurando entrar.
Na opinião desse blog, a tendência de se exterminar com a privacidade de maneira geral é um caminho sem volta. Assim, esse tipo de pesquisa é um alerta importante para que o público saiba o que é possível se obter com a IA e o impacto de sua utilização na prática. Condenar os pesquisadores é “matar o mensageiro”, embora os limites da pesquisa tenham que ser considerados. É bom você saber porque o seu seguro do carro está nas alturas ou porque você foi recusado pelo seu plano de saúde ou mesmo porque você foi rejeitado em algum recrutamento de uma empresa ou clube social. Essas formas de aumentar a realidade proporcionadas pelas onipresentes câmeras deixarão os pretensos segredos bem menos secretos e as pessoas mais expostas às interferências de governos e corporações em suas vidas.
Fonte: The Gardian
[Visto no Brasil Acadêmico]
Comentários