Os limites da inteligência emocional artificial

Crédito de imagem: Darren Garrett

Diz-me que devo me preparar para o dia em que uma inteligência artificial leva meu trabalho. Isso me deixará destituído e sem raízes ou dominado por uma plenitude de tempo e terror existencial, dependendo de quem você perguntar. Aparentemente, é hora de considerar o tipo de trabalho que apenas os humanos podem fazer e reorientar-nos freneticamente para esses papéis – para que não nos deixemos de forma impotente, como se estivesse no final de algum jogo de cadeiras musicais de robô.

O trabalho emocional é uma forma de trabalho menos comum nas futuras projeções automatizadas. Talvez isso seja porque é intangível, difícil de quantificar e monetizar. Em grande parte, os esforços que envolvem dar cuidado, carregar um fardo e assumir a responsabilidade pela função ou bem-estar dos outros passam despercebidos da mesma forma que um "trabalho feminino" – embora nos últimos anos fale de seu oculto os custos ganharam impulso na conversa da desigualdade trabalhista .

Graças às maravilhosas ferramentas da sociedade digital, somos teoricamente capazes de oferecer e receber mais suporte do que nunca. As plataformas de redes sociais nos permitem aprender mais uns sobre os outros e permanecerem em contato constante, então nós tendemos a assumir que esse conhecimento promove a empatia e a conexão. Nos sentimos mais educados sobre problemas de desigualdade estrutural e questões humanitárias globais. No entanto, quem está fazendo o trabalho real de ensino?

Para muitas pessoas, incluí-me, a tecnologia moderna e a infra-estrutura de redes sociais na realidade não facilitaram a vida. Na verdade, é facilitado a demanda por mão-de-obra ainda mais emocional, sem qualquer dinheiro extra em nossos salários. E, como é o caso de quase todo o trabalho, acaba sendo as pessoas menos privilegiadas que estão fazendo o trabalho pesado. No Twitter, são principalmente mulheres de cor , arriscando assédio cada vez que falam, que são as que regularmente oferecem lições sobre raça, interseção ou política . Se você "acordou" como resultado de gastar tempo nas redes sociais, foi por causa do trabalho inabalável de voluntários que atendem este conteúdo, geralmente sob estresse (e pelo lucro das plataformas que eles usam).

Eu também tento fazer esse trabalho, quando apropriado. Mas o trabalho emocional também pode ser íntimo, abrangendo a energia que as mulheres são desproporcionalmente socializadas para gastar a melhorar os conflitos interpessoais. Na era do Facebook, os desafios diários de todas as vidas de meus amigos estão sempre bem na minha frente. Tornar-se difícil fingir que não vi um pedido de ajuda ou apoio, mesmo vários, no meio do meu dia de trabalho real – cujos limites estão começando a se dissolver. Eu posso de alguma forma perder horas em diálogo de apoio com alguém que não é um amigo particularmente próximo, ou em argumentos da internet defendendo meus valores contra estranhos que nunca mais conheci.

"Eu gasto muito tempo nas mídias sociais" é uma reclamação privilegiada no grande esquema, com certeza. Mas, em geral, meus amigos e eu estamos cada vez mais terminando nossos dias com fio e ansioso, cansados ​​como se tivéssemos trabalhado por dinheiro, mas nos sentindo mais vazios . A percentagem de mulheres que escolheu ignorar a maternidade dobrou-se desde a década de 1970, e, embora existam todos os tipos de fatores geracionais e econômicos envolvidos , eu me pergunto: e se as mulheres hoje sentem que estamos todos fora do amor?

Na década de 1960, Joseph Weizenbaum criou um chatbot de terapeutas chamado ELIZA no Laboratório de Inteligência Artificial do MIT. Enquanto ele nunca quis projetar um terapeuta "real" de AI, Weizenbaum ficou surpreso ao ver sua secretária se juntar, voltando-se para ELIZA de forma voluntária, pois o AI ofereceu "pacientes" instruções gentis sobre suas condições ou refletiram suas respostas de volta. O que tinha sido concebido como uma sátira da fumaça e dos espelhos por trás desse simulacro de empatia (e, até certo ponto, certas técnicas terapêuticas) tornou-se uma estrada de pesquisa para a psique humana.

Weizenbaum não poderia ter predito que tantas pessoas manteriam interesse em ELIZA, que sentiriam um vínculo com ela, que passariam as próximas décadas a digitar seus segredos para ela em uma tela brilhante. Esse vínculo inesperado fornece uma pista importante sobre nossas esperanças para a AI – que queremos muito para recorrer a isso para o trabalho emocional, e que estamos dispostos a fazê-lo, não importa o quão pobre ele corresponda.

Há muito que pensamos em como a AI poderia assumir alguns desses trabalhos, quer se tratasse dos mistérios do coração humano ou dos encargos existenciais e diários de uma sociedade injusta. Os terapeutas de robô, os mordomos, as criadas, as enfermeiras e as bonecas do sexo são componentes familiares da fantasia futura tecno-utópica, onde as máquinas obedientes realizam todas as nossas tarefas indesejáveis, enquanto desfrutamos de vidas de lazer. Mas essas dinâmicas familiares podem realmente ser sobre cuidados e cuidados tanto, e talvez até mais, do que são sobre o serviço ou o trabalho.

Eu vi meu primeiro brinquedo robótico em 1985. Era um urso recheado chamado Teddy Ruxpin, que leu em voz alta para crianças, graças a livros em cassetes inseridos em sua barriga. Em anúncios de TV, Teddy ficou com as crianças do latchkey depois da escola, enquanto seus pais estavam, presumivelmente, subindo as escadas e os arranha-céus da era; ou ele lê ou cantou amoros para dormir de noite, sua mandíbula fuzzy clamando no tempo. Naquele mesmo ano, o quarto filme Rocky lançado, no qual o boxeador titular de Sylvester Stallone – agora rico – infame, oferece ao velho amigo Paulie um mordomo robótico falador. Era o pico da década de 1980, essa idéia de que a platania econômica poderia criar uma escada diretamente para o futuro da tecnologia e do lazer. O robô real que apareceu no filme, Sico, foi criado para ajudar as crianças autistas com comunicação antes de cair presa ao fascínio de Hollywood. No filme, Paulie modifica de algum modo o servo funcionalmente complexo e de voz masculina em um companheiro social de voz feminina, do qual finalmente ele cresce ("Ela me ama!", Ele exclama).

Talvez para crianças, cuidado, como um urso de brinquedo gentil no macacão, pode ser sem gênero. No que diz respeito ao mundo dos adultos, nós ainda preferimos visualizar o serviço e o serviço de nutrição como áreas predominantemente femininas. Por que a AI de hoje emprega tão freqüentemente a voz ou a personalidade de uma mulher é o assunto de ressonâncias de pesquisa , discussão e especulação . Dizemos que associamos o serviço ou a submissão com as mulheres, que um consumidor de tecnologia predominantemente masculino confunde produtos de luxo com o sexo, ou que todos supostamente respondem melhor ao som de uma voz que eles consideram femininas. Azuma Hikari, " resposta do Japão para Alexa ", é um assistente virtual que diz a seu mestre que ela sente falta dele quando ele se foi, que ela não pode esperar por ele chegar em casa. Esse tipo de coisa não é apenas desconfortavelmente enredada com sexo e submissão, mas também com companheirismo, cuidado e o gotejamento das interações diárias que constituem o trabalho emocional na era digital. Queremos que nossos robôs sejam mulheres porque já esperamos obter o trabalho emocional das mulheres.

Eu penso em mim mesmo quem está focado em desmantelar o patriarcado e tudo isso, mas mesmo eu me sinto um pouco decepcionado quando eu sigo a vontade absurda de dizer "obrigado" a Alexa – e ela não responde. Claro, Alexa só escuta minha voz quando ela me ouve dizer sua "palavra de acordar", caso contrário, ela pode muito bem estar bisbilhotando comigo o tempo todo . Mas a interação ainda se sente estéril sem esse floreio extra de trabalho destinado a me assegurar de que não fui uma imposição, que minhas necessidades são normais. Eu não quero apenas que ela toque uma música ou me diga o tempo; Eu quero que ela me faça sentir bem em perguntar também.

Esse desejo particular pode não ser propício para uma sociedade saudável. Em um artigo intitulado " O Perigo de Outsourcing de Trabalho Emocional para Robôs ", Christine Rosen cita um alerta de pesquisa sobre as maneiras pelas quais os seres artificiais podem manter nossas zonas de conforto podem homogeneizar o vocabulário do cuidado – em outras palavras, se um robô pode sorrir educadamente no comando , deixamos de apreciar o que às vezes custa a um humano fazer o mesmo? Toda terceirização corre o risco de uma desvalorização do trabalho local – podemos simpatizar ainda menos, ver nossa regressão da inteligência emocional, ou criar estranhas novas mensagens sociais sobre quem merece (ou pode pagar) cuidados. Se nossos assistentes virtuais e trabalhadores emocionais estão se tornando apáticos, AI de voz feminina, fechará certas lacunas para as mulheres humanas? Ou os ratifiará?

Complicar estas questões é o fato de que robôs, assistentes virtuais, software de produtividade, verificadores de tons de email, algoritmos de trituração de dados e qualquer coisa semelhante sob o sol estão sendo arados em massa sob a margem de "AI", quando muitos são apenas cruéis algoritmos ou software de correspondência de padrões. O Google espera que um bot possa ajudar a identificar os comentários tóxicos na Internet , enquanto o Facebook está testando uma AI que pode detectar usuários que podem ser suicidas e oferecer opções para intervir. Como Ian Bogost diz quando escreve sobre a nova falta de sentido da AI como termo , essas soluções são extremamente imperfeitas e facilmente abusadas, artificiais, mas não particularmente inteligentes.

Ainda assim, existem áreas-chave da vida on-line onde AI (ou software, ou algoritmos) apresentam grande potencial para intervir. O desenvolvedor de tecnologia criativa baseado em Portland, Feel Train, colaborou com o notável ativista da Black Lives Matter, DeRay McKesson, em um Twitter chamado @staywokebot , projetado para oferecer mensagens de apoio a ativistas negros e enfrentar algumas das tensões de enfrentar o ruído das mídias sociais; eventualmente, pretende atuar como uma linha de frente para perguntas de nível 101 como " por que nem todas as vidas são importantes? "O bot já pode dizer às pessoas como entrar em contato com seus representantes locais e um objetivo para o futuro vê-lo fornecendo respostas para questões complexas mas comuns sobre justiça, aliviando os ativistas das demandas para se envolver continuamente nessas conversas.

Depois, há o horror distópico que os moderadores de conteúdo enfrentam em plataformas como o Facebook, crônicas em detalhes especialmente horríveis neste artigo com fio de 2014 . Pode não parecer um trabalho cansativo ou habilidoso, mas, através de uma marcha constante de genitais, pornografia infantil e decapitações, certamente leva seu pedágio. Atualmente, os algoritmos podem fazer apenas força contundente adivinha sobre o tom ou o contexto de uma piada, frase ou imagem – então a intuição humana ainda é muito importante. O problema, então, é que uma pessoa real tem que olhar para cada fragmento de conteúdo potencialmente violador, pesando o mérito de cada um, dia após dia. Aqui, uma máquina inteligente poderia formar, pelo menos, uma primeira defesa, de modo que os moderadores humanos talvez apenas precisassem estudar situações mais sutis e mais matizadas.

Mitu Khandaker-Kokoris é o principal criador do London AI baseado no Reino Unido, uma empresa de software focada no uso da tecnologia AI para desenvolver interações de personagens mais humanas e plausíveis – tanto dentro dos mundos dos videogames quanto fora deles, na área da comunidade gestão. As comunidades de jogos são um dos muitos espaços complicados onde as pessoas querem testar fronteiras, tanto quanto querem encontrar lugares culturais que se sintam seguros para eles. Eu apontei para ela sobre uma das ferramentas de sua empresa, Ally, que visa tornar todos os tipos de plataformas sociais mais seguras e mais inclusivas para todos.

"Como lidar com o abuso emocional que as pessoas dirigem um para o outro e como intervemos nele? Atualmente é difícil para os moderadores, e é difícil para as pessoas vítimas, ter que esperar que uma situação seja resolvida ", diz Khandaker-Kokoris.

Ally propõe reconhecer alguns dos sinais de uma interação potencialmente problemática – não apenas quando se trata de fala ou contato direto, mas também comportamentos como perseguição ou mobbing. A partir daí, um personagem de AI, seus parâmetros moldados pelos proprietários do produto em que vive, perguntará o objetivo do comportamento se eles estiverem bem e se alguma ação é necessária.

Esta abordagem permite aos usuários definir seus próprios limites individuais, e a AI aprende das suas interações com eles sobre quando intervir e para quem. "Os limites são super complexos", diz Khandaker-Kokoris. "Estamos OK com certas coisas em certos momentos e não em outros, e pode até depender do estado de espírito em que você está. Então, esse personagem AI e suas interações com eles podem ser usados ​​como mediadores para suas interações com o resto de a comunidade. Eu acho que é um caso claro em que podemos reduzir o fardo emocional tanto para as vítimas como para os moderadores ".

Enquanto Khandaker-Kokoris compartilha algumas das hesitações que muitos sentem sobre a terceirização do trabalho emocional para a automação, em geral, ela e eu concordamos que o setor de tecnologia precisa continuar trabalhando para entender melhor o trabalho emocional para desconstruir e, talvez, delegar de forma significativa. Falar com ela me fez sentir esperançoso que uma intervenção seletiva, considerada por inteligência artificial, poderia algum dia me ajudar a curar melhores limites pessoais em um ambiente que é mais exaustivo, mais esmagador e exigente – especialmente para mulheres e pessoas de cor – do que nunca.

Enquanto isso, a indústria de tecnologia provavelmente continuará usando as vozes das mulheres para seus produtos, mas na verdade não nos escuta na vida real , assim como uma nova onda de assistentes virtuais cada vez mais inteligentes está seguramente em nossa direção. Para nos acalmar, coaxial e nos recompensar; para nos alimentar de dentro de nossos smartphones, casas inteligentes e carros inteligentes.

Por enquanto, para aqueles que já estão muito cansados ​​da vida on-line, a inteligência emocional da nossa tecnologia ainda se sente como um sonho distante.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *