Os carros autônomos já estão cruzando as ruas hoje. E, embora esses carros acabem sendo mais seguros e limpos do que suas contrapartes manua...
Os carros autônomos já estão cruzando as ruas hoje. E, embora esses carros acabem sendo mais seguros e limpos do que suas contrapartes manuais, eles não podem evitar totalmente os acidentes. Como o carro deve ser programado se encontrar um acidente inevitável? Patrick Lin navega pela obscura ética dos carros autônomos.
Este é um experimento mental. Digamos que, em algum ponto de um futuro não tão distante, você esteja à vontade na estrada, em seu carro autodirigível, e se veja encurralado por carros em todos os lados.
De repente, um objeto grande e pesado cai do caminhão que está à sua frente.
Seu carro não consegue parar a tempo de evitar a colisão, e ele precisa decidir: seguir em frente e colidir com o objeto, desviar para a esquerda e bater num SUV, ou desviar para a direita e bater numa moto.
Será que ele deve priorizar a sua segurança, atingindo a moto; minimizar o risco aos outros, não desviando para o lado, mesmo que isso signifique colidir com o grande objeto e sacrificar sua vida; ou ficar no meio termo e bater no SUV, que tem um alto índice de segurança para passageiros?
O que o autodirigível deve fazer, então?
Se estivéssemos dirigindo manualmente esse carro encurralado, qualquer que fosse nossa reação, seria apenas isso, uma reação, não uma decisão intencional.
Seria um movimento instintivo e abrupto, sem premeditação ou maldade.
Mas se um programador instruísse o carro a fazer a mesma manobra, dando-lhe condições de prever situações semelhantes, bem, isso parece mais homicídio premeditado.
Bem, para ser justo, espera-se que carros autodirigíveis reduzam drasticamente os acidentes de trânsito e fatalidades, retirando a falha humana da equação.
E talvez haja vários outros benefícios: menos congestionamento, menos emissão de gases nocivos e menos tempo improdutivo e estressante na direção.
Mas os acidentes podem e vão continuar ocorrendo e, quando ocorrerem, os resultados poderão ser determinados com meses ou anos de antecedência por programadores ou gestores públicos.
E eles terão decisões difíceis a tomar.
É tentador elaborar princípios gerais de tomada de decisão, como “minimizar danos”, mas até isso imediatamente nos leva a decisões moralmente obscuras.
Por exemplo, na situação apresentada no início, digamos que uma motociclista esteja à esquerda, com capacete, e que outro motociclista, sem capacete, esteja à direita.
Com qual deles seu carro-robô deveria colidir?
Se você disser que é com a com capacete porque tem mais chances de sobreviver, você não estaria penalizando uma motorista responsável?
Se você salvar o que está sem capacete, por ele estar sendo irresponsável, você terá ido muito além do princípio inicial de minimizar danos, e o carro-robô agora estará atuando como juiz nas ruas.
As considerações éticas ficam mais complicadas aqui.
Em ambos os cenários, a programação oculta estará funcionando como um algoritmo de escolha de alvos.
Em outras palavras, estará favorecendo ou discriminando, de forma sistemática, determinado tipo de objeto com o qual pode colidir ou não.
E os proprietários dos veículos-alvo sofrerão as consequências desse algoritmo sem ter qualquer culpa.
Nossas novas tecnologias estão trazendo muitos outros novos dilemas éticos.
Por exemplo, se você tivesse que escolher entre um carro que sempre poupasse o máximo de vidas possível num acidente, ou um que poupasse você a qualquer custo, qual você compraria?
E se os carros começarem a analisar e a julgar os passageiros dos carros e as particularidades de suas vidas?
Será que uma decisão aleatória seria melhor do que uma premeditada que vise a minimizar os danos?
De qualquer forma, quem deveria tomar todas essas decisões?
Programadores?
Empresas?
Governos?
A realidade pode não ser exatamente como nossos experimentos mentais, mas essa não é a questão.
Eles são feitos para isolar e pôr à prova nossas intuições sobre a ética, tal como experimentos científicos fazem com o mundo físico.
Vislumbrar agora essas curvas morais sinuosas vai nos ajudar a manobrar na estrada desconhecida da ética tecnológica e nos permitir viajar de forma confiante e cuidadosa rumo ao nosso novo e corajoso futuro.
Fonte: TED Ed
[Visto no Brasil Acadêmico]
Este é um experimento mental. Digamos que, em algum ponto de um futuro não tão distante, você esteja à vontade na estrada, em seu carro autodirigível, e se veja encurralado por carros em todos os lados.
De repente, um objeto grande e pesado cai do caminhão que está à sua frente.
Seu carro não consegue parar a tempo de evitar a colisão, e ele precisa decidir: seguir em frente e colidir com o objeto, desviar para a esquerda e bater num SUV, ou desviar para a direita e bater numa moto.
Será que ele deve priorizar a sua segurança, atingindo a moto; minimizar o risco aos outros, não desviando para o lado, mesmo que isso signifique colidir com o grande objeto e sacrificar sua vida; ou ficar no meio termo e bater no SUV, que tem um alto índice de segurança para passageiros?
O que o autodirigível deve fazer, então?
Se estivéssemos dirigindo manualmente esse carro encurralado, qualquer que fosse nossa reação, seria apenas isso, uma reação, não uma decisão intencional.
Seria um movimento instintivo e abrupto, sem premeditação ou maldade.
Mas se um programador instruísse o carro a fazer a mesma manobra, dando-lhe condições de prever situações semelhantes, bem, isso parece mais homicídio premeditado.
Bem, para ser justo, espera-se que carros autodirigíveis reduzam drasticamente os acidentes de trânsito e fatalidades, retirando a falha humana da equação.
E talvez haja vários outros benefícios: menos congestionamento, menos emissão de gases nocivos e menos tempo improdutivo e estressante na direção.
Mas os acidentes podem e vão continuar ocorrendo e, quando ocorrerem, os resultados poderão ser determinados com meses ou anos de antecedência por programadores ou gestores públicos.
E eles terão decisões difíceis a tomar.
É tentador elaborar princípios gerais de tomada de decisão, como “minimizar danos”, mas até isso imediatamente nos leva a decisões moralmente obscuras.
Por exemplo, na situação apresentada no início, digamos que uma motociclista esteja à esquerda, com capacete, e que outro motociclista, sem capacete, esteja à direita.
Com qual deles seu carro-robô deveria colidir?
Se você disser que é com a com capacete porque tem mais chances de sobreviver, você não estaria penalizando uma motorista responsável?
Se você salvar o que está sem capacete, por ele estar sendo irresponsável, você terá ido muito além do princípio inicial de minimizar danos, e o carro-robô agora estará atuando como juiz nas ruas.
As considerações éticas ficam mais complicadas aqui.
Em ambos os cenários, a programação oculta estará funcionando como um algoritmo de escolha de alvos.
Em outras palavras, estará favorecendo ou discriminando, de forma sistemática, determinado tipo de objeto com o qual pode colidir ou não.
E os proprietários dos veículos-alvo sofrerão as consequências desse algoritmo sem ter qualquer culpa.
Nossas novas tecnologias estão trazendo muitos outros novos dilemas éticos.
Por exemplo, se você tivesse que escolher entre um carro que sempre poupasse o máximo de vidas possível num acidente, ou um que poupasse você a qualquer custo, qual você compraria?
E se os carros começarem a analisar e a julgar os passageiros dos carros e as particularidades de suas vidas?
Será que uma decisão aleatória seria melhor do que uma premeditada que vise a minimizar os danos?
De qualquer forma, quem deveria tomar todas essas decisões?
Programadores?
Empresas?
Governos?
A realidade pode não ser exatamente como nossos experimentos mentais, mas essa não é a questão.
Eles são feitos para isolar e pôr à prova nossas intuições sobre a ética, tal como experimentos científicos fazem com o mundo físico.
Vislumbrar agora essas curvas morais sinuosas vai nos ajudar a manobrar na estrada desconhecida da ética tecnológica e nos permitir viajar de forma confiante e cuidadosa rumo ao nosso novo e corajoso futuro.
Fonte: TED Ed
[Visto no Brasil Acadêmico]
Comentários