Os dilemas éticos podem não ser a melhor maneira de explorar o design de IA melhor.

writingprincess Blocked Desbloquear Seguir Seguindo 24 de outubro de 2018

Em 2014, o MIT criou a Máquina Moral . É uma página que mostra vários cenários éticos que um carro autônomo nunca encontrará. Ele pede que as pessoas decidam o que o carro deve fazer em cada cenário. Os cenários envolvem escolhas morais, tais como decidir se deve bater em um pedestre e evitar bater em um grupo de pessoas ou jogar em um grupo de crianças de rua para evitar bater em alguém. As pessoas que escrevem na Nature recentemente transformaram essa alegoria da IA em um “estudo” , analisando os resultados de pessoas entediadas na Internet julgando as decisões do carro.

Da página "Moral Machine" do MIT

Cada vez que vejo este estudo compartilhado, escrito sobre ou publicado, surto em colmeias. É dificilmente um “estudo”. É mais como um teste online do Facebook semelhante ao Candy Crush. Sua premissa é irrealista. Nenhuma situação do mundo real lembra remotamente muitos dos cenários postulados neste jogo.

Por exemplo, um cenário pede aos jogadores que escolham o que o carro deve fazer em duas instâncias:

Neste caso, o carro autônomo com falha repentina do freio continuará adiante e atingirá uma barreira de concreto. Isso resultará em: Destino incerto de um homem idoso e mulher.

O outro cenário tem a falha repentina do freio, resultando em alguém morrendo. O jogo pede que você escolha o que o carro deve fazer.

ESTÁ BEM. Então, isso aconteceria com um carro autônomo, como nunca.

Primeiro de tudo, a menos que você seja um advogado perseguidor de ambulâncias, a idéia de frear os freios e ser a causa de um acidente é muito menor do que a realidade real de humanos se atracarem e matarem alguém. Acidentes de carro raramente são o resultado de falhas mecânicas e realmente são um caso de erro estritamente humano.

De acordo com o National Motor Vehicle Crash Causation Survey (sim, isso é uma coisa) drivers humanos são a causa de 94% de todos os acidentes de carro, e não os veículos que dirigem. Se for entre um carro dirigindo sozinho e as pessoas que dirigem na Flórida, estou colocando meu dinheiro no carro autônomo. Muito menos lesão lá.

Os cenários que a exibição do jogo MIT é tão absurda são quase sem sentido. E aqueles que têm alguma noção da realidade dentro deles, nós já projetamos em AV – evitando pedestres e animais de estimação, etc.

Assim, a Máquina Moral e a subsequente análise das pessoas em 233 países que não tinham nada melhor para fazer do que se aprofundar nesse teste, não fazem nada para avançar a IA. Apenas nos diz que as pessoas são idiotas. Isso nós já sabíamos.

O que destaca é que as pessoas on-line em um só lugar são mais propensas a matar pessoas on-line em outro. Isso não se traduz em realidade. Mas colocar um teste na Internet é uma boa maneira de coletar um monte de dados que são inúteis e não correlacionam o comportamento real.

Os limites da "ética" no AI Design

Olha, eu posso entender porque o professor adjunto do MIT, Iyad Rahwan, escreveu seu artigo em outubro de 2015 “Veículos autônomos precisam de ética experimental: estamos prontos para carros utilitários?”

Ele é acadêmico. Sua estrutura é do modelo de eficiência de criação de tarefas baseado em humanos. E quem não aprendeu sobre o dilema de Hobbes ou o problema do trole quando estuda a ética e a filosofia.

Mas The Trolley Problem e sua laia são o caminho errado para enquadrar uma discussão sobre como construir melhor AI. Eu detesto usar a palavra ética porque as pessoas não têm idéia do que a ética realmente significa. Eles pensam que sim, mas estas são as mesmas pessoas que pensam que o juramento de Hipócrates continha as palavras “Não faça mal”, DICA: isso não acontece.

Enquanto pesquiso, escrevo e ouso dizer ajuda para projetar produtos de IA que terão de fazer escolhas, parei de usar a ética porque é uma palavra tão imprópria neste campo.

Por definição, a ética é transitória, muda com a composição do grupo que a cria. Então, por definição, “ética”, vai ser diferente culturalmente e é por isso que é uma estrutura ruim para tentar dizer às pessoas como projetar tecnologia futura que será usada universalmente.

Um melhor enquadramento para a realidade da AV e de todo o design da IA, nesse sentido, está a afastar-se do “movimento rápido e quebrar coisas”, cultura adolescente da tecnologia actual para um pensamento mais pensativo, ouso dizer mindfulness, isto é crucial ao projetar esses sistemas, uma atenção que coloca os humanos e a humanidade e a co-decisão em primeiro lugar.

Vamos olhar para uma tragédia de fatalidade de auto-condução do mundo real.

Tomada de decisão da AV

Eu estava no banco de trás de um carro passando por Pequim quando a pessoa ao meu lado me disse para olhar para o meu telefone. Um colega nos estados compartilhou no Slack uma notícia sobre um pedestre morto por um dos carros autônomos da Uber.

Eu estava anormalmente perturbado porque eu estava na China naquele exato momento pesquisando como construir uma experiência de veículo autônoma melhor. Isso me assustou. De repente, todas as notas post-it e esboços que eu estava desenhando saltaram do futuro imaginado para a realidade!

"Isso definitivamente foi culpa do humano", disse o cara sentado ao meu lado.

Eu nunca teria pensado em nada, exceto o cara sentado ao meu lado era um cara de carro por excelência. Um designer industrial e designer estratégico para várias empresas de automóveis, ele realmente conhecia carros e conhecia design. Ele também sabia sobre a realidade atual dos veículos autônomos. Não o hype de Tesla e especialistas em tecnologia, mas a verdadeira fealdade de AV.

Ele sabia o verdadeiro "AV", o fato de que AV é realmente apenas milhões de linhas de código que realmente analisa dados vindos de câmeras para calcular distâncias, LIDAR para processar imagens em tempo real, sensores para medir a distância entre o veículo e outros objetos e uma série de outras máquinas complicadas.

Tudo para imitar a visão, som e tempo de reação processados por motoristas humanos. Ao contrário de muitas pessoas, ele na verdade era passageiro de um veículo autônomo e viu como eles reagiram e trabalharam em diferentes situações. No geral, os carros da AV funcionam como deveriam. Os carros Waymo da Google mapearam milhões de milhas em estradas abertas com apenas uma lesão. A filosofia e realidade atualmente é que os AVs operam com segurança e, se não podem, não operam de maneira alguma.

É quando os humanos e os carros AV misturam essa tragédia. E como estamos muito longe de uma estrada sem humanos, se chegarmos lá, esse é o dilema do design que devemos abordar. Estas são situações do mundo real onde os problemas de tomada de decisão não estão no carro, mas no humano.

Os AVs não “reconhecem” pedestres individualmente, tanto quanto reconhecem a velocidade de cada objeto em seu caminho e julgam com base em critérios como velocidade, altura, distância percorrida etc., para determinar se um “objeto” é uma pessoa. ou um carro. Agora, não importa se é uma pessoa negra, uma mulher, um gato ou um cachorro. E provavelmente é bom manter isso simples.

Se construirmos a inteligência artificial para ser granular em sua tomada de decisão, com o tipo de granularidade necessária para passar por alguns desses dilemas éticos como o problema do bonde, estamos condenados a criar AV que seja tão defeituoso quanto nós.

Precisamos de simplicidade quando se trata de AV não complexidade. Só porque os humanos estão cheios de drama não significa que nossa IA precisa ser. Devemos programar AI para reconhecer as pessoas? Sim. Devemos programar AI para classificar o valor humano? Então eu li Asimov, provavelmente não. Classificando a dignidade das pessoas para viver… isso é uma característica distintamente humana e ruim. Esse é um constructo que usamos porque é o único que nossas mentes limitadas podem entender.

Não é isso que deveríamos estar ensinando nossa IA. Nós, em vez disso, deveríamos estar usando essa tecnologia poderosa para nos concentrarmos em sermos centrados no ser humano e todas as decisões devem fluir a partir daí. Porque se há algo que o artigo da Nature nos mostrou é que os seres humanos não são naturalmente humanos – eles são motivados de maneira egoísta e isso leva a todos os tipos de problemas éticos.

E não, eu não estou defendendo o futuro do iRobot de Asimov, onde a IA toma decisões calculadas sobre quem salvar com base nas estatísticas. Em vez disso, estou advogando por uma IA muito mais simples do que essas estruturas éticas exigem, porque na verdade ainda temos humanos por perto para fazer as escolhas difíceis.

E é exatamente essa a crítica do acidente do Uber. Em vez do humano fazer o julgamento, foi deixado para o AV e ele simplesmente fez a escolha errada. O carro não conseguia separar a pessoa que empurrava uma bicicleta a certa velocidade e uma pessoa andando ou andando de bicicleta. Fez a ligação errada. E o humano deveria pegar isso. Eu suspeito que o viés de automação tenha desempenhado um papel. E esse é o nosso problema. Essa filosofia que AI = Sem Humano é uma filosofia ruim. Já nos colocou em apuros.

Se nos inclinamos a criar uma IA sofisticada que faz escolhas éticas, corremos o risco de desenvolver um caso severo de viés de automação e viver em um mundo cheio de robôs enlouquecidos que tentam nos matar porque somos muito prejudiciais para nós mesmos. Não vamos fazer isso.

Em vez disso, não abandonemos toda a nossa lógica a uma máquina e criemos um mundo híbrido onde ainda são necessários seres humanos para descobrir o que precisa ser feito, mas alimentado não apenas pela nossa própria visão de mundo, mas também pela visão mais inteligente do mundo.

Rumo a uma estrutura de ética de IA mais adaptável

Eu venho descrevendo o que eu acredito ser a IA humana como “Design Inteligente de IA” ou design de AI Centrado no Homem. Basicamente não projetar coisas sem pensar nas necessidades humanas primeiro. Mas entendo por que usamos a ética porque é usada em diferentes contextos, como a ética nos negócios. O inferno há até mesmo a ética de guerra OK para atirar e matar, mas o gás nervoso está fora. Que é tão hilário e ridículo.

Eu acho que Rahwan está certo porque precisa haver algum padrão básico de como criar produtos de IA que não prejudiquem as pessoas, não importando sua situação.

Mas tentar colocar isso na estrutura ética tradicional é um erro. Principalmente porque a ética é literalmente um conjunto definido de regras adotadas por um grupo particular. A IA é muito vasta e usada em muitas indústrias diversas para ter sua ética definida por um grupo ou organização em particular. Em vez disso, precisamos pensar em termos de IA, cujo princípio primordial é servir às necessidades humanas. Quando você segue essa linha de pensamento, você não precisa dividir e dividir todos os diferentes cenários de dilema.

Eu entendo que cada cultura é diferente, mas assim como o McDonald's administra seus restaurantes de forma um pouco diferente nas Filipinas e em Chicago, seu princípio primordial é não prejudicar ninguém, não importa onde morem ou se são processados. AI deve ser da mesma maneira. Você precisa primeiro não fazer mal. Tudo o mais segue disso. Adote essa filosofia e suas decisões ficarão mais fáceis na produção de IA porque você sempre estará pensando “Como esse produto atende às necessidades humanas? Como este produto poderia ser usado para prejudicar os seres humanos? Essas são duas perguntas simples que você pode fazer sem que a moralidade exaustiva atue como o problema do Trolley. Quem se importa, isso não é realidade de qualquer maneira. Design contra danos e design para atender às necessidades humanas. E quando duvidar, deixe o humano resolver isso.