domingo, 15 de fevereiro de 2026
Opinião Pública

A máquina convence, mas quem decide é o homem

14/05/2025 12:08
Abril de 2025 chegou com uma daquelas notícias que parecem ter saído direto de um filme de ficção científica. O ChatGPT, da OpenAI, em sua versão GPT-4.5, atingiu um marco simbólico e, convenhamos, ligeiramente inquietante: segundo um estudo conduzido pela Universidade da Califórnia em San Diego, esse modelo de linguagem passou no famoso teste de Turing em 73% dos casos — isso quando recebia um “prompt de persona”, ou seja, uma instrução para fingir ser alguém com nome, idade, gostos e opiniões. O resultado? Enganou uma galera, fazendo os participantes acreditarem que estavam conversando com outro ser humano. Só que, antes de sair por aí dizendo que “as máquinas agora são como nós”, vale respirar fundo. A inteligência artificial pode ser esperta, sim, mas continua sendo um espelho de nossas escolhas. O teste de Turing mede a capacidade de uma máquina se comportar linguisticamente como um humano — não sua inteligência real, muito menos sua consciência. A IA pode simular emoções, mas não as sente. Pode descrever a dor, mas não a sofre. Pode redigir sobre o amor, mas não se apaixona. A diferença não é apenas técnica, mas ontológica. Como bem coloca Martin Heidegger, em Ser e Tempo (1927), o ser humano é um "ser-no-mundo", um ente que se projeta, interpreta e dá sentido. A IA, por mais sofisticada que seja, é prisioneira do mundo fechado de seus dados e comandos. Pode haver simulação, mas não há existência autêntica. Mas antes que alguém comece a montar um bunker e estocar comida por medo da Skynet — aquela das telas de cinema que envia o Schwarzenegger para eliminar Sarah Connor — é importante colocar os pés no chão. Sim, a inteligência artificial está avançando a passos largos. Sim, os modelos estão cada vez mais realistas. Mas não, isso não significa o fim da humanidade, nem o colapso do mercado de trabalho. O que está mudando não é o valor do ser humano, mas o modo como ele colabora com a técnica. A IA não vem para nos substituir, mas para nos empurrar a um novo patamar de cognição, responsabilidade e reinvenção. Mais pertinente do que discutir se uma IA pode ou não enganar um humano em cinco minutos de conversa por texto, é refletir sobre quais atributos queremos proteger como essencialmente humanos. O filósofo Hans Jonas, em sua profícua obra O Princípio Responsabilidade (1979), alertava para o poder crescente da técnica e para a urgência de uma ética voltada ao futuro. Para Jonas, quanto maior o poder de agir do ser humano — e, por extensão, de suas criações —, maior deve ser sua responsabilidade diante das consequências, inclusive as imprevisíveis. A IA, nesse contexto, é menos um sujeito autônomo e mais uma extensão ampliada de nossas escolhas, valores e omissões. O perigo não está na máquina, mas na ausência de prudência ética por parte de seus criadores e usuários. Já Karl Popper, em A Sociedade Aberta e Seus Inimigos (1945), advertia contra a tendência de transferir nossa liberdade de julgamento a sistemas supostamente infalíveis — sejam eles tiranos, religiões dogmáticas ou inteligências artificiais. Para Popper, o valor central de uma sociedade aberta é a crítica racional, a capacidade de questionar continuamente os próprios pressupostos. Quando um sistema se torna opaco, inquestionável, ou revestido de uma aura de infalibilidade, deixa de ser um instrumento e passa a ser um dogma. Hoje, há quem comece a tratar algoritmos de linguagem como oráculos — e esse movimento, em si, é um retrocesso intelectual. A IA deve ser vista como uma ferramenta, jamais como substituto de juízo ou consciência. Ela opera com base em probabilidades; nós, humanos, com base em valores, narrativas e intuições que transcendem o cálculo. Quando um sistema se torna opaco, inquestionável, ou revestido de uma aura de infalibilidade, deixa de ser um instrumento e passa a ser um dogma. Hoje, há quem comece a tratar algoritmos de linguagem como oráculos — e esse movimento, em si, é um retrocesso intelectual. A IA deve ser vista como uma ferramenta, jamais como substituto de juízo ou consciência. Ela opera com base em probabilidades; nós, humanos, com base em valores, narrativas e intuições que transcendem o cálculo. É preciso dizer, também, que o impacto da IA no mundo do trabalho não será uma aniquilação, mas uma mutação. Postos repetitivos e automatizáveis tenderão a desaparecer, sim, mas o próprio capitalismo, ao longo de sua história, sempre extinguiu para recriar. Ao mesmo tempo em que encerra funções obsoletas, a tecnologia abre portas para atividades até então inexistentes: curadoria de conteúdo gerado por máquinas, design de interações éticas com IA, avaliação crítica de respostas automatizadas, entre outras. A máquina desloca o humano, mas não o elimina; ela nos desafia a descobrir o que é insubstituível na nossa condição. E talvez essa seja a maior das oportunidades filosóficas que a IA nos oferece: repensar o que, afinal, nos torna dignos de sermos chamados humanos. Em tempos de agitação tecnológica, é preciso cultivar serenidade filosófica. Não é hora de pânico, mas de discernimento. Não é momento de rendição à máquina, mas de revalorização da consciência, da ética e da liberdade humana. O GPT-4.5 pode impressionar, enganar, até divertir. Mas o juízo sobre o que é certo, justo e desejável ainda é — e por muito tempo será — responsabilidade do homem. E, como dizia Immanuel Kant, em 1788, na conclusão de sua Crítica da Razão Prática: “Duas coisas enchem o espírito de admiração e respeito, sempre novos e crescentes: o céu estrelado acima de mim e a lei moral dentro de mim.” A IA pode até tentar mapear o primeiro — mas jamais compreenderá o segundo.
Compartilhe este artigo