Inteligência artificial (IA): a nova era do universo digital

Por Lucia Santaella

Desde que, no meu livro, Cultura das mídias, cuja primeira edição data de 1992, dei os primeiros passos sobre o tema da cultura digital, naquele momento ainda timidamente emergente, não tenho me cansado, em quase todos os meus escritos desde então, de apresentar um retrospecto dos passos evolutivos e cada vez mais invasivos da cultura computacional. Tais retrospectos não estão despidos de razão. Com eles busco chamar atenção para a assombrosa aceleração no ritmo de transformações com que os algoritmos estão tomando conta de nossas existências.

Comecemos com o momento em que o computador e seus acompanhantes, o monitor, o teclado e o mouse, entraram em nossas casas. De bonito, esse conjunto não tinha nada. De excepcional, já tinha um pouco: agilidade no processamento dos números e uma boa memória que hoje nos parece risível. Era ainda uma caixa fechada, caixa de registro que aguardava seu nascimento e seu destino como mídia comunicacional. Isso teve início com as fragilidades típicas das conexões permitidas pelos modems da época. Mas saltemos as dificuldades para chegar àquele momento, meados dos anos 1990, que, de uns tempos para cá, passou a ser chamado de Web 1.0 com seus sistemas de arquivo, e-mail, servidores, bancos de dados. Então, de 1990 a 2000, a Web 1.0 expandiu-se em seus suplementos: http, HTML, trabalhos em equipe, intranets, Java, portais.

Para muitos críticos, a numeração da Web não passa de um artifício utilizado como estratégia meramente comercial. Sem negar esse fator, é também preciso considerar que as numerações encontram correspondência em fases evolutivas que, de fato, dizem respeito a expansões objetivas nos recursos que a Web oferece. Assim, na primeira década do milênio, a Web 2.0 levou à explosão das redes sociais, dos blogs e das wikis, ou seja, uma Web que atrai, como abelha ao mel, a participação efervescente de comunidades sociais em larga escala, acessando, coletando e anotando dados para os outros usuários, de qualquer ponto no espaço a quaisquer outros pontos, graças aos dispositivos móveis conectados à rede.

Depois de 2010, o termo Web 3.0 começou a entrar em uso. No início dessa década, era grande o entusiasmo com o seu poder de aperfeiçoamento das tecnologias da Web para gerar, compartilhar e conectar conteúdos por meio de busca e análise com base na habilidade de compreensão do significado das palavras. Mas, gradativamente, a Web 3.0 foi se misturando com outros recursos que dilataram o seu perfil, tais como: gráficos 3D muito usados em guias de museus, games, e-comércio, contextos geoespaciais etc.; o incremento da conectividade graças aos metadados semânticos; a ubiquidade que permite a conexão de quaisquer recursos à Web de modo que os mais variados serviços podem ser utilizados em todos os lugares.

Em texto que escrevi há menos de um ano, hoje publicado sob o título de “Um panorama caleidoscópico da arte em suas feições digitais”, no livro organizado por Pablo Gobira e Tadeus Mucelli, Configurações do pós-digital: Arte e cultura tecnológicas (Ed. UEMG), chamava atenção para o fato de que, não obstante todo o frisson provocado pelas redes de relacionamento com seus derramamentos de opiniões e de emoções, muitas vezes desmedidas, os fenômenos das redes sociais hoje só correspondem, de fato, à pontinha de um gigantesco e inquietante iceberg.

Naquela ocasião afirmava que estamos em plena era dos terabytes e seus processamentos em algoritmos de big data, era da internet das coisas (ver Revista Pesquisa ano 10, no. 259, setembro 2-17), das cidades e ambientes inteligentes, da realidade aumentada, das tecnologias portáteis, vestíveis e implantáveis, da robótica evolucionária, dos dispositivos e sensores embarcados em smartphones capazes de entrar em sintonia com ambientes responsivos. Enfim, as transformações pelas quais o ser humano, suas instituições e organizações estão passando e deverão passar não dão mais espaço nem tempo para quaisquer nostalgias.

De fato, é tal a variedade e facilidade atual de recursos ofertados pelas redes que já começa a aparecer a nomenclatura da Web 4.0 para abrigar os temas do momento e para introduzir a grande personagem que hoje reina sobre tudo isso: a inteligência artificial (IA). Quando o tema começa a frequentar sites, notícias jornalísticas, revistas para o grande público, isso significa que já encontrou morada nos tecidos mais capilares da sociedade humana cada vez mais mergulhada em algoritmos de IA.

Tudo começa já nas atividades que realizamos cotidianamente e que viraram corriqueiras, como uma busca no Google ou uma compra na Amazon, impossíveis sem os algoritmos de IA. Entretanto, a IA se expande para todos os tipos de inteligência das máquinas, referindo-se a uma área da ciência computacional que leva as máquinas a executarem tarefas similares àquelas desempenhadas pela inteligência humana. John MCarthy cunhou a expressão nos anos 1950, portanto, pode-se considerar que as pesquisas rumo ao desenvolvimento da IA já têm décadas, mas foi só recentemente que novos fatores vieram provocar a explosão de suas esperadas realizações. Entre os fatores, notável é o aumento exponencial da velocidade, tamanho e variedade de dados, o big data, e os novos processamentos das redes neurais, permitindo a identificação de padrões nos dados de modo mais eficiente do que seria possível aos humanos.

Imagem de sinapses do cérebro.

São inúmeras as definições especializadas de IA. Russell e Norvig, por exemplo, já em 2009, levantaram oito delas, dividindo-as em dois grandes grupos: de um lado, relativas ao pensamento e processos de raciocínio. De outro, relacionadas ao desempenho humano. Os processos de simulação da inteligência humana, implementados especialmente por sistemas computacionais, envolvem aprendizagem, ou seja, a aquisição de informação e das regras para a sua utilização, raciocínio lógico e autocorreção. Suas áreas mais em evidência são: sistemas especialistas, reconhecimento de fala e visão maquínica.

A automatização e expansão de capacidades cognitivas humanas pelas não-humanas são alcançadas por meio de tecnologias de aprendizagem de máquina (machine learning), aprendizagem profunda (deep learning) e computação cognitiva. Esses são os avanços recentes da IA que levam ao entendimento e manipulação de dados e conteúdos, sem que a máquina tenha sido programada especificamente para isso. Ela é capaz de autoaprendizagem.

Assim, a aprendizagem de máquina converteu-se hoje em um vasto campo de teorias estatísticas computacionais voltadas para processos de aprendizagem por meio do design de algoritmos para o reconhecimento de fala, visão computacional etc. Já a aprendizagem profunda é uma área da aprendizagem de máquina baseada em redes neurais combinadas a volumes gigantescos de dados cujos resultados obtidos são comparáveis e, em alguns casos, superiores aos de especialistas humanos.

As aplicações da IA são variadíssimas: militares (bombas inteligentes, decodificação de códigos secretos), científicas (desenvolvimento de novas drogas, cirurgias via robôs, predições de padrões de meteorologia), industriais (sistemas de inspeção por visão maquínica, sistemas robóticos), mercadológicas (sistemas financeiros avançados, consumo, entretenimento).

Como resultados, os recursos próprios da IA espraiam-se hoje por uma diversidade de atividades humanas. Os assistentes pessoais inteligentes organizam rotinas, os “automatizadores” de documentos auxiliam em uma variedade de tarefas, softwares analisam comportamentos online, algoritmos são capazes de prever o sucesso de narrativas audiovisuais, softwares avançados voltam-se para o reconhecimento perceptivo, aprendizagem profunda para diagnóstico médico e aprendizagem de máquina para tratamentos de saúde; software para sistemas aéreos autônomos.

Os avanços não param aí. A cada dia, chegam notícias que nos surpreendem, inquietam, assustam e até mesmo amedrontam. Todavia, preparemos os nossos corações, pois a inteligência é como a vida: não há como deter seu crescimento.

Referência:

RUSSEL, S.J.; NORVIG, P. Artificial Intelligence: A Modern Approach. New Jersey: Prentice Hall, 2009 (3º Ed.).

Deixe um comentário