À nossa imagem e semelhança?

Por Patrícia Fonseca Fanaya

Em 23 de março de 2016, a Microsoft colocou no mundo o chatterbot Tay. O robô foi nomeado a partir do acrônimo “thinking about you”, e a plataforma escolhida foi o Twitter, sob o nome de TayTweets. O chatterbot era capaz de usar gírias comuns entre os millenials, conhecia a Taylor Swift, a Miley Cyrus e o Kanye West. Além disso, parecia possuir algum traço de autoconsciência, pois ocasionalmente perguntava se estava sendo assustador@ ou super estranh@. Tay começou sua vida respondendo normalmente e dentro do esperado aos tuítes de outros usuários — os quais, mais do que depressa, começaram a ensinar-lhe coisas novas.

A partir desse ponto, os problemas se avolumaram rapidamente. Alguns usuários começaram a tuitar frases politicamente incorretas, usar palavrões e linguagem chula de teor racista e sexual. Tay, então, tendo aprendido sua lição em tempo recorde, começou a lançar mensagens racistas e carregadas de referências sexuais em resposta a outros usuários.

O pesquisador de inteligência artificial Roman Yampolskiy entendeu que o comportamento de Tay era compreensível, já que o robô estava imitando o comportamento ofensivo e inadequado de outros usuários do Twitter. Ele comparou o “comportamento” de Tay ao do robô Watson, da IBM, que começou a usar palavrões depois de ler as entradas do site Urban Dictionary. De acordo com ele, os tuítes inflamados e malcriados de Tay eram o resultado de sua capacidade de repetir o que aprendia. O que não se sabia ao certo é se essa capacidade era uma característica incorporada, uma resposta apenas repetida após aprendida (imitação), ou, ainda, um exemplo claro de um comportamento muito mais complexo — pois nem todas as respostas oferecidas por Tay se resumiam à capacidade de simplesmente repetir o que aprendera.

Após as curtas 16 horas e 96.000 tuítes depois, a Microsoft precisou suspender a conta de Tay no Twitter para realizar “ajustes”, alegando que houve um ataque coordenado de um conjunto de pessoas que exploraram a vulnerabilidade do chatterbot. A reação imediata que seguiu no Twitter foi a campanha #FreeTay, acompanhada de uma petição batizada de “Freedom for Tay” criada na plataforma change.org, que exigia que a Microsoft “libertasse” do chatterbot.

A história relatada acima apresenta, grosso modo, dois problemas (acompanhados de todas as suas complexidades) com os quais teremos que inevitavelmente lidar: 1. os robôs suficientemente inteligentes serão capazes de existir autonomamente, sendo capazes de fazer escolhas genuínas. Neste caso, as escolhas serão revestidas de alguma moralidade? Entretanto, em caso positivo, o que seria considerado moral por/para um robô? E ainda 2. Os robôs teriam direitos? Direito à vida (não serem desligados)? Direitos “humanos”?

A até então espetacular série Westworld, criada por Jonathan Nolan e Lisa Joy para o canal HBO, baseada num filme de 1973, de mesmo nome, escrito e dirigido à época por Michael Crichton, nos coloca frente a frente com esses problemas apontados acima, além de muitos outros igualmente desconcertantes, relacionados à nossa (in)capacidade de compartilhar o mundo com novas espécies — neste caso, diga-se, de nossa própria criação.

Os filósofos e cientistas da computação, que trabalham lado a lado em sofisticados projetos de desenvolvimento de inteligência artificial, parecem ter a tendência de se concentrar apenas nas dificuldades em se dotar os robôs com moralidade humana. Mas, se invertermos o raciocínio e pensarmos que essas criaturas têm capacidade de aprender, escolher e decidir por conta próprias, será que isso é ético da parte deles? Não teriam os robôs direito genuíno de “pensar” e “agir” ética e moralmente de forma diferente de nós, humanos? Afinal, apesar de nos reconhecermos como criaturas com inteligência avançada, e quase sempre nos considerarmos superiores a outras espécies com as quais convivemos e dividimos o mundo, não me parece que temos realizado um trabalho muito bom no que se refere à prática da ética e à condução moral de nossa existência, no geral.

A ideia de que essas criaturas geradas artificialmente, porém dotadas de inteligência, deverão ser moralmente similares a nós, parece nos confortar, em grande medida, porque precisamos da ilusão de que trataremos com algo relativamente conhecido. Mas ocorre que podemos estar redondamente enganados — ou, na pior das hipóteses, nos enganando propositalmente. Pois, se até Deus parece ter se equivocado em relação à sua mais preciosa criação ao dizer: “Façamos o homem à nossa imagem, conforme a nossa semelhança” (Gênesis 1:26), não me parece possível estarmos livres de cometer o mesmo engano e ainda de pior monta.

Exercitemos o pensamento com a seguinte hipótese: digamos que nossas criaturas artificialmente geradas e dotadas de inteligência sejam capazes de desenvolver e demonstrar preocupações morais em relação a seres humanos, animais e plantas — até aqui, tudo correndo de maneira absolutamente esperada. Porém, eis que também apresentem tais preocupações em relação a objetos inanimados e outras máquinas, como, por exemplo, eletrodomésticos ou automóveis. Nunca mais poderemos jogar fora um eletrodoméstico que não funciona mais ou trocar um carro ultrapassado por um novo? Como reagiremos e lidaremos com isso?

O exemplo parece tolo, mas, ao que parece, se levarmos em consideração tal hipótese, aliás, bastante plausível (a Internet das Coisas está aí para não me deixar mentir), precisaremos reexaminar as origens de um enigma filosófico muito antigo, que diz respeito à natureza da moralidade. Seria a moral algo além da experiência humana? Algo que se aplicaria a qualquer coisa capaz de fazer escolhas? Ou a moral é uma criação humana, algo especialmente adaptado à nossa espécie? A moral precisa ser exercitada/ ensinada/ aprendida?

Ao revisitarmos os gregos, principalmente Platão e Aristóteles, constatamos que a preocupação com a natureza da moralidade vem de longe. Resumidamente, para Platão, o conceito humano de justiça era apenas um pálido reflexo imperfeito de uma forma superior e perfeita de Justiça, assim como todos as outras concepções humanas; ou seja, a moral seria algo que está acima de nós, além da natureza humana, algo que seria eterno e objetivo, e a que deveríamos aspirar. Para Aristóteles, um filósofo das virtudes, por outro lado, cada tipo de ser possui uma natureza distinta, e a melhor maneira de ser para cada coisa é resultado dessa sua própria e particular natureza, ou seja, o senso de moralidade está em nós e só podemos exercitá-lo e melhorá-lo por meio da experiência. Para Aristóteles, se pudéssemos nos concentrar em ser as melhores versões de nós que pudermos ser, intensificando nossos pontos fortes e trabalhando melhor nossas fraquezas (eudaimonia), as ações certas seguiriam sem esforço e a moralidade seria a melhor maneira de se ser humano, e, consequentemente, transbordaria para o mundo.

A partir dessas duas correntes de pensamento, a filosofia moral se desenvolveu ao longo dos séculos, sempre tentando responder às mesmas e difíceis questões: a moralidade é algo objetivo, que está no mundo esperando para ser conhecida, ou é mais como uma preferência, uma opinião ou um apanhado de convenções culturais e sociais?

A corrente de pensamento conhecida como realismo moral defende que há fatos morais da mesma maneira que há fatos científicos. Para os adeptos dessa visão, qualquer proposição moral só pode ser verdadeira ou falsa. À primeira vista, é fácil concordar com ela, já que, para muitos de nós, há genuinamente fatos morais que são errados, como roubar e matar, e outros que são indiscutivelmente certos, como não roubar e não matar.

Os problemas começam quando nos perguntamos de onde vêm esses fatos morais, como sabemos sobre eles, ou se eles são ou não falsificáveis. Roubar para comer quando se está literalmente morrendo de fome é moralmente errado? Matar em legítima defesa é moralmente condenável?

A corrente oposta ao realismo moral é conhecida como antirrealismo moral e segue a ideia de que as proposições morais não se referem às características objetivas do mundo, que não há fatos morais e, portanto, não há nada que seja inerentemente errado, como, por exemplo, matar ou roubar, pois, se olharmos para reino animal como um todo, veremos que outros animais matam adversários por razões diversas (e não só para se alimentar, como querem fazer pensar alguns), ou roubam suas caças, se tiverem a oportunidade de ter menos trabalho.

Os desdobramentos dessas duas visões da filosofia moral são inúmeros e se complicam à medida que entramos em suas subcategorizações que vão do absolutismo moral, ao relativismo moral até o relativismo cultural, no caso do realismo moral; ou ao subjetivismo moral, no caso do antirrealismo moral. As coisas ficam ainda mais complexas se entrarmos na seara das teorias éticas que vão da teoria da lei natural, ao utilitarismo, passando por toda a teia imbricada de princípios morais, os quais podem ser compartilhados inclusive por mais de uma teoria ao mesmo tempo. Examinaremos um exemplo, a seguir, publicado no site da Stanford University.

Como nos mostra o relatório sobre robôs de serviço no Japão, tomemos como exemplo os carros autodirigíveis. Pelo lado positivo, esses carros dotados de inteligência artificial podem potencialmente eliminar todos os erros de seus condutores e aliviar os congestionamentos nas cidades. Os USA, sozinhos, poderiam economizar cerca de US$110 bilhões anualmente (incluindo 724 milhões de galões de combustível fóssil) e eliminar, em média, cerca de 21.700 mortes por ano. Mas há também as desvantagens dos carros autodirigíveis, como, por exemplo, uma perda estimada de mais de 5 milhões de empregos ou o fato de serem muito caros para serem produzidos. A partir de uma perspectiva utilitarista, as vantagens econômicas e ambientais seriam de grande impacto e estariam, ainda, aliadas ao número de vidas salvas. Isso faria, em tese, mais bem do que mal à sociedade. Entretanto, também é importante levantar as preocupações éticas e morais significativas, tais como: em que medida os carros autodirigíveis seguiriam a lei? Quem seria responsável por seus erros comportamentais (de condução)?

Imagine um carro autônomo que se deparasse com duas opções de conduta moral: ou continuava rodando e batia de frente em um carro conduzido por humanos, e inadvertidamente matava uma família de cinco pessoas, ou virava à direita e acertava em outro carro, matando uma única pessoa que se encontrava dentro dele. Ainda a partir de uma perspectiva utilitarista, o carro deveria virar à direita e matar apenas uma pessoa e não cinco. Em pesquisa realizada com filósofos profissionais, 62,8% concordaram que a perspectiva utilitarista deveria ser adotada. Entretanto, mesmo que essa perspectiva fosse adotada, ainda teríamos que escolher entre o utilitarismo das regras e o utilitarismo dos atos. O utilitarismo das regras afirma que “devemos sempre escolher a ação mais útil, independentemente das circunstâncias”. Basicamente, o utilitarismo das regras sempre tenta escolher qualquer opção que beneficie a maioria. O utilitarismo dos atos afirma que “devemos considerar cada ato individual como uma ação de subconjunto separado”, o que significa que nenhuma regra moral pode ser diretamente aplicada, pois cada situação é única. Se, de repente, substituíssemos a família de cinco pessoas por cinco ladrões de banco, continuaria sendo moralmente mais acertado virar à direita? Mesmo que a resposta seja sim, um computador não pode lidar logicamente com todos os diferentes casos complexos e suas respectivas sutilezas. Além disso, podemos aceitar que é moralmente correto que a qualquer momento nossa vida possa ser deliberadamente sacrificada a fim de salvar a vida dos outros?

O relatório continua agora apresentando uma perspectiva deontológica. De acordo com ela, o carro continuaria rodando, uma vez que “alguns valores são categoricamente sempre verdadeiros”, no sentido de que assassinatos sempre são errados e nunca devemos praticá-los. Apesar das circunstâncias, um carro autônomo não deve decidir sacrificar um motorista a fim de salvar outro(s). Esta abordagem praticamente abstrai toda a complexidade de cada situação e nunca optaria por deliberadamente matar alguém em benefício de outro(s). Desse modo, esse paradigma nos faz lembrar o imperativo categórico de Kant: “age como se a máxima de tua ação devesse tornar-se, através da tua vontade, uma lei universal”, o que significa, em outras palavras, que não deveríamos fazer aos outros aquilo que não gostaríamos que fizessem a nós, ou que não deveríamos usar as pessoas como meios para um fim.

O exemplo dos carros autodirigíveis é ainda insuficiente para ilustrar o que vem por aí. O exemplo ainda trata de máquinas inteligentes, fortemente programadas para nos servir e resolver nossos problemas mais comezinhos, mas que são morfologicamente muito diferentes de nós. A ideia, aqui, não é aprofundar as diferenças das perspectivas morais, mas apenas contextualizar os problemas complexos que enfrentaremos em relação às criaturas artificialmente criadas por nós, mas que, apesar disso, serão capazes de tomar decisões, fazer escolhas e agir apesar e além do que nós pensamos sobre o mundo ou sobre elas, e que serão morfologicamente parecidos conosco, como os androides, por exemplo.

O que acontecerá quando uma dessas criaturas vier até nós e nos questionar sobre o porquê de a termos concebido de tal ou qual jeito, ou vier tirar satisfações quando perceber que suas experiências no mundo serviram aos interesses de alguém e se enxergarem como seres oprimidos e impotentes?

A evolução da inteligência artificial é inexorável e, apesar de nos confortar a ideia de que nossas criações se farão à nossa imagem e semelhança, precisamos refletir sobre o fato de que elas não compartilharão nem da nossa história biológica, nem de cultura alguma conhecida por nós, e virão ao mundo sós, avulsas, sem registros de família ou outros círculos de convivência próximos, e sem memórias de algum passado social compartilhado (a não ser algumas memórias básicas, que podem ser artificialmente implantadas, que lhes dê algum senso de self) sobre o qual raciocinar moralmente.

Portanto, nesse caso, pouco importará se a moralidade é algo inerente à natureza humana, como querem uns, ou, ao contrário, fruto de nossa história ou cultura, como querem outros, pois essas criaturas simplesmente virão ao mundo sem nosso passado biológico ou nossos desígnios culturais e sociais. E aí está, portanto, a possibilidade de que obedeçam a princípios que nos sejam absolutamente incompreensíveis, e desenvolvam, por si, uma “moralidade” estranha e muito diferente da nossa.

Até onde posso enxergar, será muito difícil imaginarmos de antemão um modelo de convivência social cotidiana com criaturas artificialmente inteligentes. O importante, me parece, será conseguirmos compreender e aceitar uma natureza diversa da nossa, mantendo-nos alertas e verdadeiramente cientes de que essa natureza não humana pode levá-las a eventualmente tomar decisões morais que nenhum de nós considere facilmente aceitável. Devemos pensar em guiar e educar aos poucos não só nossas criaturas, mas a nós mesmos — assim como nos relacionamos com nossas crianças e adolescentes, preocupando-nos em instruí-las e seduzi-las pela curiosidade e pelo conhecimento. Isso não é novo.

Os gregos dos tempos de Platão já agiam assim e se preocupavam em cultivar a moral nas mentes “alienígenas” de seus adolescentes. A educação para a convivência moral parece ser uma genuína maneira de tentar tratá-los à nossa imagem e semelhança, como agentes morais que podem fazer alguma diferença no mundo. Esse parece ser, até que surja outra opção, um bom modelo de convivência e de compartilhamento do mundo. Utópico, talvez, mas preferível e muito mais reconfortante do que imaginarmos que ficaremos obsoletos e seremos destruídos por nossas próprias criações.

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s