O que eu aprendi escrevendo uma IA fictícia

No ano passado, tive uma idéia de história que está se juntando agora como " Playing Pachinko ". Ainda precisa de revisão, mas estou postando agora para que eu possa escrever outras coisas sem culpa. Com 13.700 palavras, "Pachinko" é um quarto até um comprimento de novela NaNoWriMo , mas é mais ambicioso e oportuno do que qualquer coisa que tentei escrever antes.

A história é uma história de 15 minutos no futuro, Black Mirror-ish sobre um país que desenvolve uma arma robô e um esforço internacional para detê-la (diplomática).
Ao escrever maldosos e poderosos AIs, você começa a considerar questões como, como podemos saber quando um AI foi muito longe? O que torna um computador assustador?

O rover apareceu abruptamente e parou em uma rocha aflorando alguns metros acima de mim. Sua cabeça emergiu de seu corpo manchado de lama e recusou, duas grandes câmeras como os olhos foram treinados em mim, um terceiro olho em um tentáculo assimétrico acima abriu a lente …

Talvez a verdadeira revolução venha não de seres humanos temendo máquinas, mas fazendo amizade e confiar em AI mais do que um ao outro.

Outro motivo para publicar agora é que pode ser muito perto de ser uma realidade … de volta em janeiro, fui jogado para um loop por esta história:

Os robôs de combate russos foram usados ​​na Síria? – bellingcat
Segundo Sputnik e vários blogs de língua russa, o exército árabe sírio (SAA) recentemente implantou dez russo … www.bellingcat.com

A resposta para isso era "não", mas claramente eu precisava escrever isso antes de entrar na distopia da guerra do robô. Sem dar o enredo, aqui estão algumas coisas que eu acredito que serão aplicáveis ​​ao mundo real:

  • Nós realmente não veremos AI poderosa como um Outro, como uma entidade assustadora e separada, até que os militares desenvolvam um robô móvel e autônomo, como nos filmes. Um drone controlado por humanos ou um centro de comando não assustará as pessoas da mesma maneira.
  • Mesmo que os robôs militares autônomos não sejam poderosos ou abundantes, seu primeiro uso será tão espantoso quanto a guerra química.
  • Até que um AI seja inteligente o suficiente, o perigo real ainda será as pessoas que o controlam ou agem em seu nome.
  • As nações pesquisam AI para as despesas na raiz de sua economia. Os EUA e o Japão se concentram muito nos cuidados de saúde e fazemos bots de saúde. Segue-se que um robô militar seria inventado por um país cuja economia gira em torno da I & D militar, semelhante ao desenvolvimento de satélites e armas nucleares da Coréia do Norte.
  • Também é possível que AI seja usada para apoiar um aliado numa guerra estrangeira impopular. A Rússia usa algum tipo de sentinela terrestre autônoma na Síria, e os EUA usam drones na Líbia, no Iêmen e na Somália em lugar de grandes implantações de tropas.
  • A proliferação militar de AI é semelhante à proliferação nuclear – apenas os estados-nação têm a capacidade de fazer ou inovar neste espaço. Mas uma vez que um país está produzindo, outros podem copiar, roubar os planos ou comprá-los. Olhe para cima AQ Khan .
  • Continuando o fio de proliferação: o que os inspetores de AI procuram? Como eles podem medir os riscos colocados por cada programa AI? Um robô assassino com um interruptor de morte humano de alguma forma é mais ético?

Na vida civil:

  • Alguns AIs de consumidores serão idiotas, como os cobradores de dívidas implacáveis.
  • Aplicativos e dispositivos de assistente inteligente, inevitavelmente, ouvirão e reconhecerão tudo o que acontece ao nosso redor.
  • As sugestões dos assistentes inteligentes serão cada vez mais pessoais, mas também decisões muito mais valiosas e confiáveis. Pode ser uma boa idéia fazer o que seu assistente inteligente recomenda (tipo de como eu confio no Google Maps).
  • Se os dispositivos inteligentes podem compartilhar informações com segurança, eles podem basear sugestões sobre o conhecimento de outros dispositivos. Suponha que eu esteja considerando uma oferta de emprego, e meu aplicativo sabe que o futuro chefe não gosta de mim e só precisa preencher uma posição. Os servidores do aplicativo conhecem os dois lados da história. Então, poderia me aconselhar a recusar a oferta, sem explicar o porquê, ou me convencer a se juntar de qualquer maneira.
  • Cada sistema inteligente precisará escolher um lado quando um humano e um programa interno não concordam em algo ( este não é o sanduíche que eu pedi, quero meu dinheiro de volta ). Cada sistema inteligente que quer fazer essa decisão corretamente rastreará pessoas e seu histórico de consumidores em um nível sem precedentes, para criar uma espécie de classificação de confiança. Se você pensou que as classificações de estrela de Uber eram um grande problema …

E isso é um embrulho.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *