Moralizando a inteligência artificial: podemos fazer com que as máquinas tenham essa razão ética?

A inteligência artificial hoje ainda está muito atrás dos animais mais primitivos em complexidade. O que acontece quando fazemos mentes cada vez mais complexas e poderosas?

Aubrey Hansen Segue 15 de jul · 5 min ler Fonte da imagem: Pixabay

Um cenário apocalíptico comumente citado quando se fala em inteligência artificial fugitiva é que ele não sabe quando parar. Depois de ser direcionado para realizar alguma tarefa trivial, a IA super-genial irá para comprimentos extraordinariamente inumanos para cumprir sua diretriz, como desligar a rede elétrica internacional para reduzir o consumo de energia.

A Inteligência Artificial de hoje não é construída para moralizar. No momento, serve apenas como uma ferramenta. E isso é esperado, porque quem está procurando máquinas moralistas agora?

Trending AI Articles:

1. 10 tendências da Inteligência Artificial (IA) em 2019

2. 100 dias para Aprendizagem Profunda: Parte 2 os 100 dias

3. Como podemos melhorar a qualidade de nossos dados?

4. Aprendizado de Máquina usando Regressão Logística em Python com Código

Mas, novamente, a Inteligência Artificial hoje ainda está muito atrás dos animais mais primitivos em complexidade. O que acontece quando fazemos mentes cada vez mais complexas e poderosas?

Um dos poucos exemplos disponíveis é o Mind.AI, que acredita que isso é possível. Eles construíram um mecanismo que raciocina usando linguagem natural em vez de aprendizado por reforço e reconhecimento de padrões comuns em IA hoje, e esperam agrupar o conjunto de dados do mecanismo através do uso de dApps.

O mecanismo Mind.AI usa lógica indutiva, dedutiva e abdutiva, que você pode reconhecer como as construções de raciocínio que os humanos usam todos os dias. Eles estão fechando a lacuna entre o pensamento da máquina e o pensamento animal; esta é pensada para ser a única maneira de criar computadores verdadeiramente inteligentes.

O seu motor também não roda em vastos conjuntos de dados raspados e vestidos para uso em máquinas – o que os desenvolvedores acham intrusivo. Em vez disso, os dApps amplamente disponíveis e gamificados solicitarão aos usuários que forneçam ao mecanismo snippets de linguagem natural que eles chamam de 'ontologias', que o mecanismo então cria em estruturas de dados personalizadas chamadas 'canônicas'.

Fonte da imagem: Pixabay

Dados de crowdsourcing

Ao construir sua plataforma na cadeia de blockchain de Velas artificial e conduzida pela intuição artificial, eles são capazes de incentivar seus dApps, permitindo que os usuários ganhem recompensas do envio de ontologias. E ao descentralizar todo o processo, eles esperam tornar toda a abordagem o mais transparente possível.

Sempre que o mecanismo tomar uma decisão moral, os usuários poderão investigar o processo de raciocínio e ver aonde ele deu certo – ou errado. Pense em um carro automatizado; os investigadores serão capazes de identificar exatamente onde o software está tomando decisões morais, e os usuários serão capazes de treinar a mente para fazer a escolha certa o tempo todo.

Naturalmente, a questão do que é "certo" deve ser respondida. O motor da Mind.AI é claramente capaz de tomar decisões complexas, mas quem pode dizer se são éticas? Através do crowdsourcing, os usuários podem olhar para dentro dos "pensamentos" da máquina para ajudá-los a concluir se concordam com as escolhas da Mind.AI, mas apenas porque um ser humano assinou uma decisão não faz a coisa certa.

Para ilustrar quão frágeis são nossas bússolas morais, considere o famoso Trolley Problem , em que alguém deve decidir se vai salvar a vida de um indivíduo ou de muitos. Esta é uma questão relevante no que diz respeito a veículos automatizados, porque pode um dia ser um cenário em que um carro com motor de propulsão artificial é forçado a decidir se acerta um pedestre ou desviar do caminho e acertar vários. A reação instintiva da maioria dos humanos é salvar muitas vidas ao invés de uma, porque somos naturalmente animais conduzidos pela quantidade, mas uma objeção comum pergunta se você pode quantificar a vida dessa maneira. O Problema do Trolley não é perguntar se muitas vidas valem mais do que uma; pergunta se a vida pode ser avaliada usando medidas extrínsecas. A vida só é relevante por uma medida de quanto dela existe, ou a relevância da vida vem de algo intrínseco, algo em si e de si mesmo?

Fonte da imagem: Mind.ai

Não há resposta conclusiva. Dilemas morais como este têm atormentado a lei, a ética e a política por milênios, e parece que eles estão destinados a atormentar o reino da Inteligência Artificial também. Se os humanos não podem decidir o que fazer em situações como o Problema do Trolley, que esperança tem uma IA?

Bem, eles realmente podem ter muita esperança! Pense nisso da seguinte forma: durante toda a nossa existência, os seres humanos foram a única coisa neste planeta tentando responder a tais perguntas; É lógico que talvez estejamos empenhados em lidar com eles. Se pudermos criar uma Inteligência Artificial que tenha uma noção dos princípios éticos, teremos agora um companheiro que possa oferecer sua opinião sobre essas questões. Não importa o quanto tentemos, a mente de uma máquina Artificialmente Inteligente não funcionará exatamente como a nossa (devido à falta de biologia), mas isso pode realmente ser uma coisa boa. Sob uma perspectiva moral relativista, não importa se alguém escolhe salvar uma vida ou salvar muitos, desde que eles possam explicar por que tomaram sua decisão.

E é isso que a Mind.AI pode fazer. Através do uso de canônicos, o Mind.AI pode explicar claramente como ele tira suas conclusões. Enquanto o mecanismo do Mind.AI estiver trabalhando dentro de uma estrutura de numerosos princípios morais (escolhidos por aqueles que criam o AI), ele estará agindo eticamente.

Não é de se admirar que a empresa de VC REDDS Capital tenha achado que havia encontrado algo único em Mind.AI. A empresa está atirando para esse pedestal mítico que nenhum outro desenvolvedor de inteligência artificial ainda precisa alcançar: produzir uma IA genérica capaz de raciocínio humano-humano complexo.

Não se esqueça de nos dar o seu ?!