Chegou a hora de enfrentar o dilema dos algoritmos da morte.
Os veículos sem motoristas já estão em teste há anos e devem começar a surgir no mercado nos próximos anos. Agora é chegada a hora de questionarmos como será a consciência do grilo falante desses carros, ditos, inteligentes.
O canal Wendover Productions coloca essa discussão de maneira muito didática em seu vídeo "The Messy Ethics of Self Driving Cars" para que todos possam refletir sobre esses complexos dilemas e ter a sua visão sobre o tema. E você o que pensa? Aproveite e opine. Traduzimos a transcrição das legendas logo a seguir.
Vamos dizer que há um bonde com algumas faixas. Sobre uma da faixas estão cinco homens. O bonde está correndo à toda velocidade nessa faixas e você sabe, com absoluta certeza, que ele vai acertar os cinco homens. Embora, haja uma pista lateral com um homem nela.
Em frente de você há um comutador. Se você empurrá-lo, o bonde vai mudar de direção, acertar e matar o homem sozinho.
Se você não fizer nada, o bonde vai acertar e matar todos os cinco homens.
O que você faz? Você desempenhar um papel ativo, mas condenar o homem na pista ao lado à morte ou não vai fazer nada, mas permitir que cinco indivíduos morram? Esta é um experimento clássico da ética do pensamento. A maioria das pessoas concorda que eles devem desviar o carro e matar o homem. Ela funciona para o bem maior e reduz o risco.
Agora, em um cenário diferente, digamos que você está em pé sobre uma ponte sobre os trilhos de bonde e mais uma vez há um bonde correndo solta em direção a cinco indivíduos na pista. De pé ao lado de você está um homem tão gordo que você sabe que, se você fosse para empurrá-lo para os trilhos, ele iria parar o bonde em suas faixas e salvar os cinco indivíduos.
Bem menos pessoas dizem que eles iriam empurrar o homem nesta circunstância do que os que dizem que desviariam o bonde na primeiro circunstância.
Elas apenas não se sentem confortáveis tendo um papel tão ativo na morte do homem gordo.
Estes experimentos mentais são apenas hipóteses e é improvável que alguém tenha que tomar essas decisões, no entanto eticistas e os desenvolvedores estão tendo agora que criar algoritmos para ditar o que os nossos carros autônomos do futuro devem fazer em enigmas éticos semelhantes.
Ao contrário dos humanos, os carros que dirigem sozinhos terão a capacidade de escolher cuidadosamente a sua resposta em uma colisão que se aproxima, e vão precisar de um conjunto de regras pré-designado para ditar o que deve fazer em caso de uma colisão inevitável.
Um pensamento seria apenas contar que os carros seguissem as leis. O problema com isso é que não há realmente leis para estas situações.
Muitas leis são escritos considerando que a ética é um conceito confuso e fluido. Ao julgar uma situação, pode-se nunca saber o que motivou um indivíduo de escolher uma determinada ação, mas com os carros que dirigem sozinhos, nós seremos capazes de compreender o processo de tomada de decisão.
Além disso, seguindo as leis poderia ser prejudicial em algumas situações. Por exemplo, digamos que um veículo está parado em um semáforo e há um pedestre na faixa de pedestres em frente do carro. O carro detecta que um caminhão está chegando muito rápido por trás e vai bater o carro.
O carro não pode avançar sem bater o pedestre.
Há duas opções:
O carro não pode fazer nada, ficar parado, atropelado pelo caminhão, e, portanto, bater no pedestre na frente ou, alternativamente, o carro pode se mover para a frente, bater no pedestre, mas evitar ser atingido pelo caminhão.
Isto apresenta questões legais e éticas difíceis sobre se o carro tem agora a culpa pelos ferimentos do pedestre ou o caminhão.
Dadas as leis que temos agora, é possível que a culpa seria colocada sobre o carro.
Outra questão é de quem é a culpa por um acidente com um carro de auto-condução.
Considerando-se que não há um condutor humano, é do proprietário a falha dos veículos?
Agora vamos dizer que o pedestre estivesse se movendo rápido o suficiente para que ele não estivesse mais na frente do carro no momento do impacto entre o caminhão e o carro, mas que, para que o carro se movesse para fora do caminho antes do tempo de impacto entre o caminhão e o carro, que seria necessário acertar o pedestre.
É agora ético para o carro ferir o pedestre, mesmo que o pedestre provavelmente escapasse ileso se o carro não se movesse? Será que depende do número de pessoas no carro? E se o carro tinha uma mãe de três filhos e o pedestre fosse um criminoso? Seria diferente se o carro tivesse um criminoso nele e pedestre fosse a mãe de três filhos? É aí que estas questões éticas tornam-se ainda mais confusas.
Outra escola de pensamento é que os carros de auto-condução devem ser programados para salvar as vidas de mais humanos, ou causar a menor lesão possível, no entanto, existem problemas com esta solução também.
Vamos pensar em outra situação.
Digamos que há duas motocicletas descendo em direção ao carro que dirige sozinho em uma estrada que é muito estreita para os diferentes veículos passarem um pelo outro.
O carro não tem tempo suficiente para reduzir e há nenhum nenhum lugar para virar.
Um motociclista tem um capacete e um não.
O carro deveria atingir o motociclista com capacete porque seus ferimentos podem ser menos grave ou o carro deveria atingir o motociclista que não tem um capacete, porque ele não se protege adequadamente?
É uma situação complicada por completo, e um dilema ético real.
É muito difícil para os seres humanos a explicar ou justificar as regras por trás de nossas próprias ética, é por isso que essas questões são tão difícil de responder.
Por esta razão, uma proposta de solução para programar carros de auto-condução é "modelagem moral", essencialmente programação por exemplo.
O computador será apresentado com uma situação, e um ser humano, ou, idealmente, um conselho de ética, iria dizer ao computador qual é a solução "ética" seria.
Essas são todas situações muito improváveis de ocorrer, mas com a prevalência que carros autônomos tendem a se tornar, os algoritmos é que irão determinar como a falha poderia escolher o destino de dezenas de vidas a cada ano.
No entanto, está previsto que carros autônomos salvem mais de 30.000 vidas por ano, uma vez que estejam generalizados.
Estes ética pode tornar-se uma questão muito contestada em alguns anos, no entanto, se essas negociações prevenir ou retardar a propagação de carros sem motorista muitos mais vidas poderiam ser perdidas do que jamais seria determinada pelos chamados "algoritmos da morte".
E aí? Você compraria um carro que estivesse programa para, em certas situações, sacrificar você em prol do bem comum? Deixe sua opiniões sobre o tema. Quem sabe não podemos ajudar a decidir como será a ética da futura geração de transporte individual?
Fonte: YouTube
[Visto no Brasil Acadêmico]
Vamos dizer que há um bonde com algumas faixas. Sobre uma da faixas estão cinco homens. O bonde está correndo à toda velocidade nessa faixas e você sabe, com absoluta certeza, que ele vai acertar os cinco homens. Embora, haja uma pista lateral com um homem nela.
Em frente de você há um comutador. Se você empurrá-lo, o bonde vai mudar de direção, acertar e matar o homem sozinho.
Se você não fizer nada, o bonde vai acertar e matar todos os cinco homens.
O que você faz? Você desempenhar um papel ativo, mas condenar o homem na pista ao lado à morte ou não vai fazer nada, mas permitir que cinco indivíduos morram? Esta é um experimento clássico da ética do pensamento. A maioria das pessoas concorda que eles devem desviar o carro e matar o homem. Ela funciona para o bem maior e reduz o risco.
E você? O que faria nesse caso?
Agora, em um cenário diferente, digamos que você está em pé sobre uma ponte sobre os trilhos de bonde e mais uma vez há um bonde correndo solta em direção a cinco indivíduos na pista. De pé ao lado de você está um homem tão gordo que você sabe que, se você fosse para empurrá-lo para os trilhos, ele iria parar o bonde em suas faixas e salvar os cinco indivíduos.
Bem menos pessoas dizem que eles iriam empurrar o homem nesta circunstância do que os que dizem que desviariam o bonde na primeiro circunstância.
Elas apenas não se sentem confortáveis tendo um papel tão ativo na morte do homem gordo.
E nesse cenário? Você...
Estes experimentos mentais são apenas hipóteses e é improvável que alguém tenha que tomar essas decisões, no entanto eticistas e os desenvolvedores estão tendo agora que criar algoritmos para ditar o que os nossos carros autônomos do futuro devem fazer em enigmas éticos semelhantes.
Ao contrário dos humanos, os carros que dirigem sozinhos terão a capacidade de escolher cuidadosamente a sua resposta em uma colisão que se aproxima, e vão precisar de um conjunto de regras pré-designado para ditar o que deve fazer em caso de uma colisão inevitável.
Um pensamento seria apenas contar que os carros seguissem as leis. O problema com isso é que não há realmente leis para estas situações.
Muitas leis são escritos considerando que a ética é um conceito confuso e fluido. Ao julgar uma situação, pode-se nunca saber o que motivou um indivíduo de escolher uma determinada ação, mas com os carros que dirigem sozinhos, nós seremos capazes de compreender o processo de tomada de decisão.
Além disso, seguindo as leis poderia ser prejudicial em algumas situações. Por exemplo, digamos que um veículo está parado em um semáforo e há um pedestre na faixa de pedestres em frente do carro. O carro detecta que um caminhão está chegando muito rápido por trás e vai bater o carro.
O carro não pode avançar sem bater o pedestre.
Há duas opções:
O carro não pode fazer nada, ficar parado, atropelado pelo caminhão, e, portanto, bater no pedestre na frente ou, alternativamente, o carro pode se mover para a frente, bater no pedestre, mas evitar ser atingido pelo caminhão.
De nossa perspectiva, provavelmente parece certo para o carro se mover e bater no pedestre, no entanto, isso significaria que era o carro ferindo o pedestre agora, em vez de o caminhão.
Nesse caso, o carro...
Isto apresenta questões legais e éticas difíceis sobre se o carro tem agora a culpa pelos ferimentos do pedestre ou o caminhão.
Dadas as leis que temos agora, é possível que a culpa seria colocada sobre o carro.
Outra questão é de quem é a culpa por um acidente com um carro de auto-condução.
Considerando-se que não há um condutor humano, é do proprietário a falha dos veículos?
Se um carro autônomo causar um acidente.
Agora vamos dizer que o pedestre estivesse se movendo rápido o suficiente para que ele não estivesse mais na frente do carro no momento do impacto entre o caminhão e o carro, mas que, para que o carro se movesse para fora do caminho antes do tempo de impacto entre o caminhão e o carro, que seria necessário acertar o pedestre.
É agora ético para o carro ferir o pedestre, mesmo que o pedestre provavelmente escapasse ileso se o carro não se movesse? Será que depende do número de pessoas no carro? E se o carro tinha uma mãe de três filhos e o pedestre fosse um criminoso? Seria diferente se o carro tivesse um criminoso nele e pedestre fosse a mãe de três filhos? É aí que estas questões éticas tornam-se ainda mais confusas.
Outra escola de pensamento é que os carros de auto-condução devem ser programados para salvar as vidas de mais humanos, ou causar a menor lesão possível, no entanto, existem problemas com esta solução também.
Em uma situação que um carro autônomo esteja envolvido que haverá mortos e feridos. O carro deve...
Vamos pensar em outra situação.
Digamos que há duas motocicletas descendo em direção ao carro que dirige sozinho em uma estrada que é muito estreita para os diferentes veículos passarem um pelo outro.
O carro não tem tempo suficiente para reduzir e há nenhum nenhum lugar para virar.
Um motociclista tem um capacete e um não.
O carro deveria atingir o motociclista com capacete porque seus ferimentos podem ser menos grave ou o carro deveria atingir o motociclista que não tem um capacete, porque ele não se protege adequadamente?
Se foram programados carros para bater no motociclista com capacete, pode significar que se tornaria mais seguro andar sem capacete.
É uma situação complicada por completo, e um dilema ético real.
No caso dos motoqueiros, o carro deve...
É muito difícil para os seres humanos a explicar ou justificar as regras por trás de nossas próprias ética, é por isso que essas questões são tão difícil de responder.
Por esta razão, uma proposta de solução para programar carros de auto-condução é "modelagem moral", essencialmente programação por exemplo.
O computador será apresentado com uma situação, e um ser humano, ou, idealmente, um conselho de ética, iria dizer ao computador qual é a solução "ética" seria.
Ao longo do tempo o computador iria aprender a imitar a ética de um ser humano, e, essencialmente, tomar as mesmas decisões que um humano faria.
Essas são todas situações muito improváveis de ocorrer, mas com a prevalência que carros autônomos tendem a se tornar, os algoritmos é que irão determinar como a falha poderia escolher o destino de dezenas de vidas a cada ano.
No entanto, está previsto que carros autônomos salvem mais de 30.000 vidas por ano, uma vez que estejam generalizados.
Estes ética pode tornar-se uma questão muito contestada em alguns anos, no entanto, se essas negociações prevenir ou retardar a propagação de carros sem motorista muitos mais vidas poderiam ser perdidas do que jamais seria determinada pelos chamados "algoritmos da morte".
E aí? Você compraria um carro que estivesse programa para, em certas situações, sacrificar você em prol do bem comum? Deixe sua opiniões sobre o tema. Quem sabe não podemos ajudar a decidir como será a ética da futura geração de transporte individual?
Fonte: YouTube
[Visto no Brasil Acadêmico]
Eu compraria o carro de der mais segurança a mim e meus familiares.
ResponderExcluirBem , vamos por partes... Me parece que o que vai nortear as decisões cibernéticas seja a lógica, e não a emoção, dai que todas as decisões deverão atender padrões de eficiência quanto ao resultado a ser produzido, qualquer coisa fora disso seria descartado , pois, o "pensamento" ou raciocínio lógico não comporta ineficiência de resultado.
ResponderExcluirAnalisando dessa forma,penso que sempre se optará pela decisão que melhor atender os requisitos de resultado, ou seja, aquelas que mais se aproximarem do fator eficiência com menos danos ou perdas.
Uma máquina não é ética, nem anti-ética, nem boa, nem má, ela apenas decide em favor do resultado a ser alcançado, salvo instruções em contrário.
No futuro, pra quem tenha um robô em casa, em caso de incêndio, não espere ser salvo primeiro se ele não for programado pra isso, pois, se estiver programado para seguir regras éticas, Inseridas nele pelo programador diga-se de passagem, serão essas regras de salvamento que ele vai seguir.
Quanto a comprar um carro autônomo, hoje minha resposta é NÃO,pois, nem gosto muito das tantas tecnologias embarcadas hoje em dia, quanto mais deixar um carro decidir por mim, cômodo não?.
Talvez por trás disso tudo haja o desejo das pessoas em se livrarem das responsabilidades, é muito mais fácil acusar erro do sistema, da programação, qualquer coisa, menos assumir que erramos.
Concordo com isso tudo. E hoje talvez sera difícil comprar um carro autônomo por ser uma tecnologia nascente. Mas com um trânsito ceifando tantas vidas essas questões serão diminutas perto do benefício. E tenderia a zero se todos os carros fossem autônomos. Com o carro autônomo um dia passaremos a nos deslocar pela cidade como se pegássemos elevador. Poderíamos sequer ver a paisagem (como ocorre hoje no metrô). Trabalharíamos e nem ao menos iríamos ter que nos preocupar em estacionar, abastecer ou chamar o motorista (ter motorista hoje é "chic", mas será uma profissão a caminho da obsolescência). Teríamos até dificuldade em assumir a direção como ocorre com pilotos de avião acostumados com tecnologia embarcada e com motorista de carros automáticos ao pegar um carro de câmbio manual.
ExcluirHoje tive aula de ética e cidadania e foi posto a nós este dilema , se eu pudesse nao opinaria e ate agora estou enrolando. Salvo quem o trem difícil
ResponderExcluirSe você estiver sem saber pode recorrer a um artifício: O acaso. Poderia decidir jogando um dado ou uma moeda e, a depender da face, escolher o que vai ocorrer. Isso é facilmente implementável em um programa de computador e poderia ao menos tirar do homem a necessidade de decidir, em boa parte dos casos.
Excluir