O ChatGPT veio para colocar a ética humana à prova

ChatGPT came to put human ethics to the test

Lucia Santaella

Unexpectedly for the developers themselves, ChatGPT dropped like a bomb in societies, mostly galvanizing hearts. In an impressively short space of time, everyone “at the same time, in all places”, took the floor to say what they think and feel about the novelty. This article intends to place emphasis on issues related to the human uses of technologies, especially when technology emerges with a high capacity for dialogue.

Luciano Floridi é um dos mais respeitados e prestigiosos filósofos das tecnologias, em especial na sua forma atual da inteligência artificial (IA). Diante disso, não passaria de ousadia refutar algumas de suas ideias relativas à ausência de inteligência na IA. De fato, quando a refutação é infundada e puramente emocional, a ousadia deve ser sancionada. Contudo, não creio que seja esse o teor da discussão aqui pretendida. Antes de tudo, declaro que tenho grande apreço intelectual pela obra de Floridi. A dificuldade que aqui levanto é específica e diz respeito apenas a dois textos, um em coautoria nos quais os autores analisam o GPT3 e, mais recentemente, o ChatGPT, discutido por Floridi.

Infelizmente para mim, Floridi não está sozinho, quem está bem mais sozinha sou eu. Afinal, todas as pessoas querem se sentir especiais, jamais reduzidas a dados ou comparadas a uma máquina, por mais sagaz que ela pareça ser. Portanto, acreditar, sem suspeições, que a IA não tem inteligência implica resguardar a convicção na grandeza inimitável do humano, como o fez Chomsky em artigo recente.

Questionar se a IA é inteligente ou não poderia ser considerado uma questão bizantina e dispersiva dos reais problemas que estão emergindo com a IA. Entretanto, conforme proposto em Santaella (2023), para aqueles que estão interessados na IA centrada no humano, ou seja, nas consequências que a IA está trazendo para a vida humana, discutir a inteligência da IA é uma maneira retroativa de discutir, pelas similitudes e diferenças, as peculiaridades, até agora inimitáveis, da inteligência humana. Justifica-se, com isso, que a questão reiteradamente volte à tona.

A  IA é burra como uma velha máquina de escrever?

Em artigo publicado já em 2020, antes do frenesi que o ChatGPT está incessantemente provocando, Floridi e Chiaritti testaram o modelo GPT-3, antecessor do GPT-3.5 presente no atual Chat, usando para isso, questões matemáticas, semânticas e éticas. Concluíram, então, a partir de um comentário incluso em um artigo de divulgação, no qual se fiaram, que o GPT-3 é “uma extraordinária peça de tecnologia, mas tão inteligente, consciente, esperta, atenta, perceptiva, perspicaz, esclarecedora, sensitiva e sensata (etc.) quanto uma velha máquina de escrever”. São muitos aqueles que sentem um prazer vaidoso em repetir que a IA não é inteligente. Aliás, concluir que sim ou que não só seria relevante se, de saída, a definição de inteligência, mesmo que controversa, fosse cuidadosamente perfilada e os argumentos decorrentes fossem desenvolvidos com coerência. Não é isso que se vê.

Nega-se a inteligência às máquinas como se todos soubessem o que é inteligência. Conclusão, as pessoas tomam a si mesmas e outros seres humanos que conhecem como modelos de inteligência, de resto, uma ideia que, na realidade, não se enquadra na noção de modelo, pois não passa de intuição muito vaga do que é inteligência. Acrescenta-se a isso o fato de que muitas vezes podemos estar erroneamente certos de nossas intuições.

De modo um pouco mais sofisticado, Floridi e Chiaritti enumeram uma série de adjetivos, todos eles sem definição e muito misturados, ou seja, uma enumeração que, embora caótica, remete para características que os humanos facilmente reconhecem como suas. De resto, características que nos envaidecem como seres inteligentes, tais como, por exemplo, “perspicaz” ou “sensitiva”. É óbvio que o GPT-3 ou o GPT-3.5 não apresentam essas características demasiadamente humanas.

O GPT é um prisioneiro da língua. Ele não tem corpo, não tem fadiga nem hormônios, vive no reino estrito das palavras. Palavras, oh! palavras, tudo são palavras selecionadas por meio de operações estatísticas pesadas. Por isso, ele erra de modo até engraçado, pois não tem senso comum, esse que as crianças vão aprendendo em poucos anos porque estão interagindo em um mundo de vivências contextualizadas.

O ChatGPT possui agência sem inteligência

Em artigo bem recente, escrito no calor da curiosidade imperiosa que esse Chat está produzindo, Floridi (2023) avança seu argumento de negação da inteligência à IA. Entretanto, diante dos inegáveis avanços do Chat em suas competências conversacionais e inclusive tarefeiras, o filósofo concede ao Chat o poder de agenciamento, um tipo muitíssimo inédito de agenciamento. Pois, claro, um agenciamento despido de inteligência.

O texto está pontilhado de afirmações que estão se tornando clichês, tais como aquelas ainda presas às teses de Searle de que a IA é meramente executiva, mas não entende o significado daquilo que executa. Frente ao ChatGPT, nessa mesma linha, há aqueles que, orgulhosos de sua humanidade, afirmam que o Chat não passa de um papagaio de tipo muito especial, um papagaio estocástico. Tudo isso, mereceria ser colocado em discussão. Entretanto, limito-me a formular uma pergunta ao argumento de Floridi: como pode haver agência sem inteligência?

Para discutir essa impossibilidade, recorro à teoria da causalidade de C. S. Peirce, um filósofo que, infelizmente, é muito pouco seguido, devido, entre outras dificuldades, à imensa complexidade lógico-científica e à transdisciplinaridade de sua obra. Se atentarmos para a sua concepção muito original de causalidade, nela encontraremos elementos capazes de refutar a ideia floridiana da possibilidade de agenciamento sem inteligência.  

Causação final e causação eficiente

O conceito de causa aparece em muitos filósofos ao longo do tempo, o que coloca esse conceito em meio a controvérsias. Não entrarei nesses meandros. Limito-me a indicar que, para Peirce, só existem duas ações básicas no universo: ações inteligentes e ações eficientes, também chamadas de causação final e causação eficiente, com o cuidado de que não sejam confundidas com as quatro causas aristotélicas.

O que deve ser retido de saída é que as duas causações estudadas por Peirce tiram do caminho a noção determinística, muitíssimo impregnada na mentalidade ocidental, que reduz causalidade à relação dual de causa e efeito a qual, segundo Peirce, não passa de uma abstração metafísica da causalidade mecânica. Para ele, a variedade e a complexidade crescentes da natureza não podem ser explicadas apenas com base na “regra da necessidade mecânica”, pois esta não é capaz de criar diversidade onde não havia antes. Onde quer que olhemos, seja na geologia, astronomia, evolução biológica, a história das instituições, as linguagens e as ideias, em tudo, o que se percebe é crescimento e complexidade também crescentes.

Então, de sua concepção triádica da realidade, ou seja, da possibilidade, da ação/reação e da continuidade como constitutivas de todo e qualquer fenômeno, Peirce extraiu sua teoria da causalidade, uma teoria com três elementos relacionados, como não poderia ser diferente: acaso, causação eficiente e causação final. Assim, todo ato de causação envolve um componente eficiente – a ação concreta no seu aqui e agora –, um componente final – o propósito que guia a ação concreta – e um elemento de acaso, imprevisível e não determinado nem pela causa eficiente, nem pela causa final. Esta, por sua vez, dirige os processos concretos na direção de um alvo, em função de tendências para atingir propósitos. Portanto, todas as coisas e pessoas devem sua identidade a alguma causa final, a qual regula e unifica uma série de eventos, as causas eficientes, que se constituem em estados momentâneos de um processo contínuo.

Acaso, causação eficiente e causação final são inseparáveis. Se fosse considerada de modo isolado da causação final, a causação eficiente, executora, seria mera compulsão cega, bruta, despropositada. Por outro lado, sem a causação eficiente, o propósito, a causação final, seria pura abstração, descorporificada. Ela precisa da relação diádica, eficiente entre dois eventos individuais concretos para atingir sua meta. A causação final, portanto, é triádica, relação entre seu propósito em mira (inteligente), a causa eficiente que coloca esse propósito em ação, e o efeito concreto que essa ação realiza. É importante notar que o efeito nada tem de determinístico, pois, sua existência real, de um lado, é inseparável de sua combinação com um enxame infinito de circunstâncias, de outro lado, sofre os efeitos inevitáveis do acaso.

Não há agenciamento sem inteligência

Aí está: sem a ação inteligente como guia, a ação eficiente seria cega, bruta e desgovernada. Sem a ação eficiente, a ação inteligente não passaria de uma abstração sem eficácia. Ambas trabalham juntas, inseparáveis. São ações básicas do universo que se manifestam em todo e qualquer fenômeno e certamente nas ações humanas.

Ora, aquilo que Floridi chama de agência sem inteligência, não passa de ação eficiente despida de ação inteligente. Transposto para o ChatGPT, ele não passaria de um executor despropositado, mais desgovernado do que uma barata sob ação de Rodox. Esse está muitíssimo longe de ser o caso. Um caso que não é outro a não ser reconhecer que operações estatísticas são operações inteligentes de que a IA se alimenta. Tudo isso vem demonstrar que, para compreender a IA e o ChatGPT em suas próprias medidas, sem impor sobre eles parâmetros tipicamente humanos, ambos apresentam agenciamentos que não dispensam a ação propositada que é ação inteligente.

Vamos parar de antropomorfizar a IA. Vamos parar de barrar o caminho da compreensão impondo sobre a IA características que são peculiares da inteligência humana, entre elas, as absurdas cobranças de que a IA não está imbuída de moral. Ora, moral não é outra coisa senão a ciência prática da ética, a ciência mais imperiosamente humana. Essa sim, a questão crucial que o ChatGPT está trazendo à cena. Um tipo de cena que coloca o protagonismo humano no foco principal.

A lição a extrair do uso das redes sociais

As tecnologias de linguagem atraem-me há anos. No fundo, aquilo que me atrai são as linguagens humanas e todas as transformações por que têm passado ao longo de séculos. Portanto, a tecnologia em si e suas complicadas tecnicalidades escapam de minha competência. Para compensar, o grande relevo encontra-se nas consequências que as tecnologias de linguagem trazem para o humano. Fala-se muito em impactos ou efeitos. Como pragmaticista (nada de pragmatista) o que me interessa são as consequências humanas. O maior ou verdadeiro significado das coisas encontra-se nos efeitos sensíveis que elas provocam ao longo do tempo (essa a lição do pragmaticismo de C. S. Peirce). Diante disso, posso afirmar que o ChatGPT caiu direto no meu colo.

Desde a entrada das redes da internet nas sociedades, foi ficando cada vez mais notório que as redes se transformam pelo uso que é delas feito. A natureza das redes sociais é a natureza do uso que os humanos nelas implantam. Disso resulta, contudo, que aquilo que fazemos com as tecnologias é devolvido por aquilo que elas fazem conosco, naquilo em que elas nos transformam. Eis, portanto, a questão: em que o ChatGPT e seus sucedâneos nos transformarão?

No espaço de tempo mais curto da história da internet, surgiu uma infinidade de textos escritos por leigos, semi-especialistas ou especialistas sobre por que e como o ChatGPT funciona e o que ele é capaz de fazer ao ser usado. Não vou me deter nesses aspectos, inclusive porque já muito brevemente me dediquei a isso.

Basta dizer que, queira-se ou não, O ChatGPT apresenta-se como um grande mestre no jogo da conversação. Especialistas nos modelos atuais de processamento de linguagem natural demonstram por A mais B que, diferentemente do que pensa Chomsky, o ChatGPT desempenha uma impressionante captura da dinâmica básica da língua humana, pois integra sintaxe e semântica nas representações subjacentes. Por isso, nos resultados que nos apresenta, o Chat é capaz de trazer textos mais gramaticalmente corretos, sintatica e semanticamente coerentes  do que muitos dos textos que recebemos de estudantes do ensino superior pelo menos no Brasil. 

Embora seja, de fato, verdadeiro que ele não entende o que fala, que não compreende o significado do que escreve, que não tem sentimentos morais, que alucina algumas informações, bater na tecla dessas incompletudes avaliadas a partir do modelo humano, só desvia o caminho da discussão daquilo que é crucial. Quem leu Latour saberá que o ChatGPT funciona como um actante, portanto, o que importa agora é sobretudo o que ele nos faz fazer, o que nos faz sentir, os modos como nos faz agir. 

Trata-se de um tipo inteiramente novo de interatividade de teor conversacional dinâmico e contínuo em que o ChatGPT vai aprendendo para o bem ou para o mal com a intencionalidade que o usuário vai imprimindo ao fluxo da conversa. O que se tem aí é uma inédita forma de aprendizagem mútua.  

A ética como guia

Em suma, para o presente e, especialmente, para o futuro, além de vários outros quesitos éticos nas mãos dos desenvolvedores e empreendedores, muito dependerá dos usos, guiados ou não pela ética, que os humanos empreenderão com o Chat. Riscos para esse uso não faltam. Em entrevista concedida a Leonardo Stamillo, Folha de S. Paulo, 22 fevereiro, 2023, Pattie Maes os sintetizou:

Eu tenho várias preocupações, especialmente relacionadas à maneira como as pessoas consomem conteúdo hoje. Essas ferramentas vão tornar ainda mais fácil a produção não de uma, mas de milhares de notícias falsas, com múltiplas versões do mesmo conteúdo. Vai ser mais fácil criar milhares de perfis falsos que depois vão influenciar as pessoas a tomarem decisões equivocadas. O uso massivo da internet como fonte de consulta de informações já fez com que não existisse mais uma ideia clara de verdade. Essa tecnologia vai degradar ainda mais esse cenário, porque a internet vai ser inundada por muito mais lixo travestido de conteúdo sério, convincente. Nós estamos fazendo uma série de experimentos para entender como as pessoas estão consumindo conteúdo produzido ou recomendado por inteligência artificial e os resultados são bastante preocupantes. Os usuários deixam de pensar sobre o assunto por eles mesmos, eles são menos críticos quando a inteligência artificial está dizendo que algo é verdade ou não, especialmente quando o sistema gera uma explicação elaborada.

As cartas estão dadas e que a rápida degeneração dos usos humanos das redes sociais nos sirva de lição.

4 comentários sobre “O ChatGPT veio para colocar a ética humana à prova

Deixe um comentário