A promessa de uma IA humanizada ou de uma humanização projetada?

Por Patrícia Fonseca Fanaya

A London School of Economics promoveu o encontro Living in the Past: exploring memory in humans, animals, and artificial agents, nos dias 20 e 21 de maio. Entre os especialistas estavam Nicola Clayton, Felipe De Brigard,  Zaferinos Fountas,  Johannes Mahr e  Ida Momennejad. O tema da memória foi abordado por diversas perspectivas, buscando responder às principais inquietações, como: por que revivemos o passado; por que não vivemos apenas o momento; qual é o sentido de dedicar recursos mentais para armazenar informações sobre o passado; outros animais fazem isso ou insistir no passado é uma inovação (evolutiva) exclusivamente humana; ou, ainda, o que acontece quando construímos esse tipo de memória em agentes não humanos (IAs)?

Por razões de pertinência, me aterei a comentar alguns aspectos que me chamaram a atenção na apresentação da Dra. Momennejad — que, grosso modo, tratou da última questão mencionada acima, e que me fez refletir sobre outros assuntos relacionados à IA.

Ida Momennejad é a pesquisadora principal no Microsoft Research, New York. Seus interesses de pesquisa encontram-se na interseção entre reforço de aprendizagem, cognição humana e comportamento. Mais especificamente, ela estuda como os humanos e a IA constroem modelos de mundo e os utilizam na memória, na exploração do ambiente e no planejamento de ações. Ela desenvolve e testa algoritmos inspirados no cérebro e comportamento humanos para treinar, por exemplo, a IA para jogar videogame. A abordagem que ela propõe combina reforço de aprendizagem, redes neurais, LLMs, aprendizagem de máquina com experimentos comportamentais, fMRI (ressonância magnética funcional) e, ainda, eletrofisiologia do cérebro humano. Momennejad está empenhada, atualmente, em compreender mais profundamente como a memória episódica funciona em nós e como, a partir dela, conseguimos nos adaptar melhor às circunstâncias e ter mais flexibilidade em nossas tomadas de decisão sobre como agir para alcançar nossos objetivos.

A memória episódica é responsável por armazenar, por assim dizer, os eventos cotidianos que podem ser explicitamente declarados ou evocados. Esse tipo de memória coleciona experiências pessoais passadas que ocorreram em momentos e lugares específicos — como, por exemplo, uma festa de aniversário, um casamento, um beijo, uma viagem, um encontro etc. Ela está intimamente relacionada, ainda, à memória autobiográfica, que, por seu lado, é um sistema baseado na combinação das memórias episódica e semântica. Essas duas formas de memória também estão associadas a outros tipos de memória e a outras de nossas funções cognitivas como, por exemplo, o raciocínio, as capacidades de conceituar e julgar, o planejamento, entre outras.

A relação com as experiências pessoais faz com que a memória episódica seja especialmente importante de ser estudada pelos cientistas que pesquisam IAs, justamente porque, apesar de estarem cada vez melhores em correlacionar informações que nos ajudam com nossos problemas, elas ainda não apresentam nada que se assemelhe àquilo que conhecemos ou reconhecemos como perspectiva experiencial, ou seja, a perspectiva em primeira pessoa ou consciência, que nos habilita a dar sentido às coisas. Nós aprendemos com a experiência e esta, por sua vez, está acondicionada em nossas memórias, que nos fazem ser quem somos.

O grau de desenvolvimento que temos hoje ainda não permite que um modelo de IA generativa como o ChatGPT, por exemplo, reconheça ironia, humor, sarcasmo ou qualquer outra manifestação humana que independa das palavras que entram (no caso dos LLMs) em seu treinamento, e das correlações estatísticas que possam resultar disso. O ChatGPT, portanto, como não é dotado de qualquer perspectiva experiencial, não faz ideia das diferenças entre um soneto e uma receita culinária; ou das consequências de fornecer instruções sobre como construir uma bomba caseira a um adolescente. Ou seja, esse tipo de agente artificial não está apto a formar conceitos e/ou fazer qualquer tipo de julgamento — seja moral, ético, estético ou de qualquer outra natureza — sobre os conteúdos que é capaz de gerar.

O interesse dos cientistas que pesquisam IA, como Momennejad, é compreender profundamente como a memória episódica influencia a cognição humana e como se relaciona com outras funções cognitivas, e, a partir daí, desenvolver IAs com comportamentos mais parecidos com os nossos. No entanto, há grandes obstáculos que precisam ser contornados e/ou vencidos pela ciência. Ainda estamos compreendendo como funcionam e como estão relacionados os mecanismos da memória humana, e como eles influenciam a cognição; ainda pairam dúvidas plausíveis sobre a própria existência da consciência, e estes são apenas alguns problemas que influenciam nessa jornada. Os pesquisadores enfrentam, ainda, outras questões complexas, como, por exemplo, identificar quando e se conseguiram criar um agente artificial mais humanizado a partir dos parâmetros que estabeleceram; ou ainda, não se deixarem enganar e acreditar que conseguiram algum sucesso nesse propósito sem terem realmente chegado lá.

A crença de que estamos próximos de uma IA consciente povoa a mente de muitas pessoas — dos leigos, mas também de especialistas, que não estão imunes a enganos, vide o caso do engenheiro do Google demitido há dois anos por atribuir consciência ao chatbot que desenvolvia, e que nem mesmo possuía as habilidades de versões mais recentes de chatbots como o ChatGPT 4o, por exemplo.

Os problemas, com certeza, se avolumarão à medida que observamos a popularização dos chatbots com capacidade multimodal, operação em tempo real, e características de design antropomórficas, como vozes humanas, “personalidades” customizáveis e uma memória cada vez maior de “conversas” que imitam a dinâmica das interações sociais humanas. Isso pode nos tornar cada vez mais vulneráveis a manipulações algorítmicas, não tenho dúvidas; e, além de indesejável, isso pode ser muito mais perigoso do que imaginamos. No entanto, há um entendimento, que parece estar disseminado e consolidado (e não só no meio das empresas de tecnologia, mas este é um assunto para outro post), de que só se consegue combater esse tipo de problema com mais e melhores tecnologias, e eu concordo com isso, já que a alternativa é abandonar o desenvolvimento da IA, o que me parece uma possibilidade absurda e fantasiosa, sob qualquer ponto de vista.

Voltemos a Momennejad, que está empenhada em compreender melhor a habilidade que temos de usar algoritmos de aprendizagem que nos permitem planejar qualquer coisa a partir da memória. As perguntas que ela constantemente se faz são do tipo, “que algoritmos o cérebro usa?”; ou “como comparar algoritmos humanos e artificiais?”. Uma vez levantadas as hipóteses, ela constrói modelos computacionais a partir dessas perguntas e realiza testes que os comparam ao comportamento humano. Assim, ela consegue definir qual deles funciona de maneira mais parecida com nosso cérebro e traçar um caminho de reforço de aprendizagem para a IA. O resultado esperado é que a IA demonstre um tipo de comportamento mais humano; porém, não podemos nos esquecer que isso também significa que ela está sujeita a cometer e apresentar comportamentos indesejáveis, assim como os nossos.

Não tenho pretensão alguma de entrar em questões muito técnicas neste post, até porque não tenho conhecimento suficiente para isso. Minha intenção é apontar que, mesmo com experimentos comparativos bem estruturados, com equipes multidisciplinares compostas pelos maiores especialistas disponíveis em desenvolvimento de algoritmos, redes neurais e neurociência, além de muito dinheiro envolvido, Mommenejad e outros pesquisadores tão competentes e empenhados como ela enfrentam o problema de não conseguir determinar com precisão se as melhorias de comportamento de seus modelos significam qualquer passo em direção à humanização da IA. O que isso quer dizer? Quer dizer que os modelos podem simplesmente produzir as respostas comportamentais esperadas, mas continuar sem habilidade alguma de conceituar ou julgar aquilo que estão fazendo — quer dizer, sem conseguir atribuir qualquer significado aos conteúdos que geram.

Ainda há outro problema a ser enfrentado, que é o fato de, muitas das vezes, o reforço de aprendizagem dos LLM continuar a ser feito por gente como eu e você. Através das redes, geramos milhões de sentenças e damos feedback aos algoritmos com o polegar para cima ou para baixo, às toneladas, em publicações e comentários nos quais manifestamos concordância ou discordância sobre o conteúdo de um post ou o comentário de alguém. Alguns estudos já demonstraram que o reforço de aprendizagem realizado por humanos faz com que aumente a probabilidade de algoritmos apresentarem comportamentos estranhos, que simulam sinais de consciência, que parecem humanos, mas que, na verdade, são apenas resultado dos reforços que receberam dos usuários.

Repetir e remixar informações e/ou apenas imitar o comportamento humano não parece ser exatamente o tipo de inteligência que as pesquisas mais avançadas estão buscando dar aos algoritmos — até porque isso já foi alcançado e melhora a cada dia; e nunca é demais lembrar que nós, humanos, também aprendemos por repetição e imitação, e criamos coisas incríveis e de muito valor a partir de remixagens. Portanto, pode-se no mínimo dizer que há um consenso de que a IA realmente aprende.

O problema parece estar no que entendemos por humano, e se nos será possível (ou desejável, e até que ponto) “engenheirar” este conceito para dotar os algoritmos de alguns de seus (bons) predicados. Aí parece estar o segredo, a pergunta de trilhões e trilhões de dólares que ainda precisa ser respondida.

Foto do destaque: Aideal Hwa em Unsplash

Deixe um comentário