Rejeitar os avanços tecnológicos é presumir um mundo que já não existe. Na verdade, nunca existiu, pois tem sido sempre esta a história da humanidade. De igual forma, quando se fala de revolução digital, é fácil cair em estereótipos, quer de rejeição (tecnofobia), quer de deslumbramento (tecnofilia). O que aqui propomos é uma perspetiva dubitativa ou, para empregar a designação cartesiana, uma “dúvida metódica”, isto é, a necessidade de escrutínio sistemático dos avanços tecnológicos, não por qualquer descrença apriorística nas virtudes do progresso ou espírito retrógrado arreigado, mas porque o poder destes instrumentos e as consequências que têm na vida de todos, assim o exige. Face às inovações digitais (ou, para o efeito, quaisquer outras) devemos sempre perguntar-nos: que vantagens trazem, quem beneficia com elas?
Se é certo que a tecnologia pode ultrapassar ou minimizar muitos dos problemas com que se confronta a humanidade, a sua evolução estará sempre subordinada ao interesse nesse desiderato. E esse interesse tem muito mais a ver com o modelo de sociedade que se pretende implementar do que com maiores ou menores desenvolvimentos no domínio técnico. Com efeito, a complexidade das questões económicas, sociais, políticas e éticas que a evolução tecnológica levanta, pressupõe a compreensão não só dessa evolução, como uma visão atenta e uma atitude crítica acerca da sua utilidade e benefícios envolvidos, e, nessa medida, sobre a necessidade permanente da implementação de mecanismos de controle, que evitem derivas perniciosas para as sociedades. É precisamente porque o papel da tecnologia é fundamental e decisivos os seus avanços, que os mecanismos para o seu controle são igualmente imprescindíveis.
A nova “revolução industrial”, baseada na digitalização dos processos de produção, nas tecnologias digitais móveis e, sobretudo, no uso da inteligência artificial, com profundas implicações na forma como trabalhamos e vivemos, está em pleno desenvolvimento e constitui parte integrante do nosso mundo. E não há dúvida de que os chatbots com inteligência artificial generativa estão a transformar a forma como interagimos com a tecnologia. Mas será que as vantagens da sua utilização são indiscutíveis? Porque, se um algoritmo pode determinar o caminho mais curto entre dois pontos ou que semáforos ligar para orientação do tráfego automóvel numa avenida, sem levantar grandes problemas éticos ou morais, já a gestão dos recursos humanos ou a seleção de candidatos a um emprego são problemas bem mais complexos, obrigando à ponderação de questões que têm a ver com a subjetividade humana e com a aplicação de princípios de equidade, de justiça ou de não discriminação. E, já agora, com a possibilidade de erro. Ora, como refere o presidente do Instituto de Engenharia de Sistemas e Computadores, professor e presidente do IST, Arlindo Oliveira, “O problema reside em que nem sempre é possível garantir que os algoritmos, projetados para executar uma dada tarefa, irão desempenhar a sua função inteiramente de acordo com os valores éticos que devem reger a sociedade.”, acrescentando, “Ao delegarmos cada vez mais capacidade de decisão em algoritmos, ao confiarmos nas soluções propostas por estes algoritmos, estamos a remover os seres humanos do processo de decisão e a confiar, porventura cegamente, nos resultados de cálculos que, muitas vezes, são opacos e difíceis de auditar.” (Arlindo Oliveira, Ciência, Tecnologia e Sociedade, Lisboa, Guerra e Paz, 2023, p. 47).
Aliás, para este cientista, “O desenvolvimento de um sistema superinteligente ou a criação de uma tecnologia que permita emular integralmente um cérebro humano num computador teriam, caso ocorressem, consequências dramáticas no funcionamento da sociedade.”, explicando que “Estas consequências seriam completamente estranhas à nossa experiência quotidiana, pois estaríamos perante uma sociedade na qual a imortalidade (numa cópia virtual) poderia ser conseguida, a mente poderia sobreviver à morte do corpo, as decisões políticas e as descobertas científicas poderiam ser feitas não por seres humanos mas por programas de computador superinteligentes.” (Arlindo Oliveira, Inteligência Artificial, Lisboa, FFMS, 2019, p. 96). A bem dizer, e invocando a afirmação de Irving John Good, matemático inglês que trabalhou com Alan Turing em Bletchley Park, tratar-se-ia mesmo da derradeira invenção da humanidade, que passaria a estar dominada por estes dispositivos digitais (cf. Oliveira, 2023: 216). Uma autêntica distopia!
Ainda que a Inteligência Artificial esteja largamente presente nas nossas vidas desde meados do século passado, o mundo assistiu, no início do ano de 2022, ao seu mais fulgurante lançamento: o ChatGPT (sigla de Generative Pre-trained Transformer), a aplicação da OpenAI. Este incensado programa informático é um modelo de linguagem que consegue estabelecer relações probabilísticas com base na coocorrência de palavras – o que se designa por modelo generativo – a partir de um gigantesco conjunto de textos e baseado num sistema de redes neuronais – os “transformadores” (cf. Oliveira, 2023: 77). Como explica Arlindo Oliveira, “Baseado apenas no modelo estatístico de que dispõe, o sistema responde a estes desafios com textos que são, simultaneamente, coerentes, complexos e reveladores de uma aparentemente profunda compreensão do mundo.” (ibid.). Mas – e este mas faz toda a diferença –, “Uma vez que conhecemos o modelo matemático, sabemos bem que não existe verdadeira inteligência por trás do mesmo.”, concluindo, “O modelo do mundo que permite ao sistema criar textos verosímeis e convincentes não é, seguramente, semelhante ou paralelo ao que cada um de nós tem.” Para este autor, o ChatGPT “pode descrever, convincentemente, um lindo pôr do sol, a beleza de um arco-íris ou a intensidade de uma paixão, mas nós sabemos que, no fundo, isto é o resultado de um processo de inferência estatística feita de acordo com regras matemáticas bem determinadas, implícitas no modelo.” (Oliveira, 2023: 78). O inesperado, a originalidade, a ironia, o livre-arbítrio – enfim, o humano – estão ausentes. O próprio CEO da OpenAI, Sam Altman, reconheceu prudentemente “que seria um erro usar o sistema para qualquer tarefa importante, uma vez que este é muito limitado e apenas suficientemente bom para criar uma ilusão de qualidade.” (Oliveira, 2023: 84).
O velho sonho de Alan Turing que em 1950 concluiu que um dia seria possível reproduzir a inteligência humana num computador, esbarra não só com a extrema complexidade do nosso pensamento, como, sobretudo, com a imprevisibilidade e criatividade tão próprias dos seres humanos. É por isso que, para o influente filósofo e linguista norte-americano Noam Chomsky, “Esta inteligência artificial é o ataque mais radical ao pensamento crítico” (Ípsilon, Público, 28/4/2023). Para este pensador, a IA “Preocupa-se, sobretudo, com simulação e não com o entendimento. O ChatGPT é, assim, um exercício inteligente de simulação.”, acrescentando, “Elas [as tecnologias de IA] criam uma atmosfera onde a explicação e a compreensão não têm qualquer valor.” Até porque, como se sabe, a mera informação, por maior que seja, está longe de significar conhecimento. O excesso de informação pode mesmo resultar numa estado de entropia e num défice de compreensão.
Reconhecendo que “As tecnologias digitais são as infraestruturas das sociedades avançadas”, o filósofo basco Daniel Innerarity sublinhou, numa palestra na Fundação Cidade de Lisboa, organizada pela Sociedade Portuguesa de Autores no âmbito da conferência Inteligência Artificial e Cultura – Do Medo à Descoberta, que “A inteligência artificial não pode ser criativa porque é incapaz de produzir descontinuidade” (Público, 13/5/2023), Assumindo uma visão mais realista da IA, que, “nem é tão inteligente nem tão artificial”, Innerarity explica que “As máquinas extraem, recombinam e emulam a partir do trabalho do passado. São propriedades que correspondem a clichés, são símbolos etiquetados. É mimetismo”, acrescentando, “A criatividade humana não se pode imitar nem repetir, é contraditório repetir ou imitar a criatividade. A criatividade implica sempre uma certa transgressão que não é suscetível a regras ou estatísticas”, para concluir, “As máquinas imitam os criadores, os criadores podem desafiar as fronteiras do inimitável.”
A máquina pode “pensar”, mas não tem consciência, nem sentimentos, nem valores, nem imaginação, nem criatividade. Faz deduções lineares através de um algoritmo lógico, mas não produz conhecimento. É inteligência mecânica, colige informação, não gera sabedoria. Os textos do ChatGPT baseiam-se em cálculos estatísticos a partir de milhões de dados e de conexões probabilísticas. Mas quantos textos verdadeiramente importantes não se basearam precisamente na criatividade das conexões imprevistas, das hipóteses desafiantes, do princípio do “against all odds”? Essa démarche permanece – felizmente – um monopólio humano. O que se ganha, então, com a sua utilização indistinta?
Com um impacto semelhante à da revolução da internet ou dos telemóveis, a excecionalidade da novidade do ChatGPT obnubilou desde logo qualquer debate sobre os seus riscos. Inês Hipólito, professora de Filosofia de Inteligência Artificial na Universidade de Sydney explicou, em entrevista à Visão (3/8/2023) “como estes modelos de linguagem replicam narrativas dominantes e podem agravar problemas de subrepresentação”, alertando para a necessidade de regular o fenómeno. Desde logo ao nível do ensino. Tratando-se de um banco de dados gigantesco, que proporciona toda a informação sobre tudo – mas informação não tratada, sem referências autorais ou citações, de uma equivalência acéfala entre todos os textos, independentemente da sua origem ou valia – o seu uso indiscriminado e sem critério, induz certamente mais ignorância que sabedoria. Promove sobretudo a fraude académica e a preguiça intelectual. Em termos jurídicos suscita uma serie de problemas, como o direito de propriedade intelectual, proteção de dados e falsidade da informação, dando origem a todo o tipo de enviesamentos e manipulações. A quem aproveita este estado de coisas? A resposta de Inês Hipólito é muito clara: “O argumento de que a tecnologia é neutra tende a beneficiar os mercados, porque é o que as empresas de tecnologia querem – inovar sem regulação vinda de um governo ou de uma instituição internacional.” E a filósofa conclui: “O modelo de linguagem repete uma narrativa dominante. Alguns dos desenvolvimentos sociais que alcançámos podem ser revertidos ou tornados mais lentos se os modelos captarem e propagarem essas narrativas dominantes, reforçando estereótipos.”
Como acontece noutras áreas, a regulação dos mercados é essencial. É sabido que onde não há regulação, prevalece a lei do mais forte. E é isto que tem feito a ventura das grandes empresas tecnológicas. Mas se, como diz Inês Hipólito, esta regulação é urgente – “Quase diria com tanta urgência como para o aquecimento global e a crise ambiental” – “O que poderá acontecer é que o mundo será governado pelos milionários da IA”. Pois!
No mesmo sentido, o conhecido historiador israelita, Yuval Harari, numa conferência em Lisboa, organizada pela Fundação Francisco Manuel dos Santos, afirmou que sem regulação da inteligência artificial, “as hipóteses de as democracias sobreviverem são muito baixas” (Público, 20/5/2023). Referindo-se à capacidade generativa da IA (sistemas de IA capazes de gerar uma grande quantidade de conteúdos), Harari alerta “Não, a inteligência artificial (IA) não é uma tecnologia como as outras que surgiram ao longo da história e que também foram recebidas com receios. Os jornais, a rádio e a televisão não conseguem gerar notícias falsas sem que um humano as escreva e a «bomba atómica não pode decidir que cidade destruir», mas a IA «é a primeira tecnologia que consegue tomar decisões por si própria». Por isso é urgente a sua regulação, já que as empresas tecnológicas não vão regular-se a si mesmas.
Os riscos para a liberdade dos cidadãos e a vivência democrática são evidentes, alimentando as crescentes pressões autoritária e populista. Como disse José Pacheco Pereira nessa mesma conferência, “Com a inteligência artificial e com os instrumentos que temos na Internet, posso manipular umas eleições como fez a Cambridge Analytica nas eleições de 2016 [nos Estados Unidos]”, que elegeram Donald Trump. Ou que tornaram viral uma fotografia do papa vestindo um casaco impermeável de última geração que ele nunca vestiu, ou imagens de pessoas a afirmar coisas que elas nunca disseram ou apresentadas em sítios onde nunca estiveram. É esse um dos principais motivos da inédita greve dos argumentistas e atores de Hollywood desde maio. A possibilidade de modelos de linguagem, como o ChatGPT, substituírem os argumentistas cinematográficos ou de versões digitais dos atores desempenharem os seus papeis na tela, e com isso reduzir drasticamente os custos de produção e obter ganhos extraordinários – aquilo que o CEO da Disney designa eufemisticamente, “criar eficiências” (Visão, 21/8/2023) – é uma ameaça séria não só para estes trabalhadores culturais, como para toda a gente.
Está em preparação um “admirável mundo novo” de manipulação da consciência e de cerceamento das liberdades, através de mecanismos sub-reptícios (porque não imediatamente percetíveis) e sumamente eficazes (porque a uma escala nunca vista) de controlo dos cidadãos. O que parece indiscutível é que, por detrás de qualquer sistema de inteligência artificial, estão as pessoas e as empresas que o criam. Serão estes os seus principais beneficiários.
Como disse, um dia, Cedric Price, o visionário e influente arquiteto britânico, “A tecnologia é a resposta, mas qual era a pergunta?”
Hugo Fernandez