Da impossibilidade das terapias pela Inteligência Artificial: o fetiche da técnica mais aprofundado que nunca

Discute-se a tese de que “terapias por Inteligência Artificial” padecem de uma impossibilidade estrutural quando pretendem substituir a clínica fundada na transferência e no laço intersubjetivo. Partindo da crítica frankfurtiana ao fetichismo da técnica e da noção psicanalítica de desejo, argumenta-se que sistemas algorítmicos operam por cálculo e predição, enquanto a clínica se orienta pelo acontecimento singular do sujeito e pelo trabalho da palavra. Analisam-se: (1) o fetiche da técnica em contextos de racionalidade instrumental; (2) limites epistêmicos de modelos estatísticos de linguagem; (3) a centralidade da transferência e do ato clínico; (4) efeitos biopolíticos do governo algorítmico da vida; e (5) riscos éticos e políticos de medicalização automatizada. Conclui-se que a IA pode, no máximo, oferecer ferramentas auxiliares de gestão de informação, mas não pode ocupar o lugar do analista nem da relação terapêutica sem desfigurar o próprio sentido de cuidado.
Introdução
A promessa de “terapias por IA” condensa expectativas de escala, precisão diagnóstica e redução de custos. Sob tal promessa, reaparece um velho problema: a conversão do cuidado em tecnologia de administração de condutas. Em chave frankfurtiana, trata-se da atualização do fetiche da técnica, a crença de que mediações tecnológicas, por si, resolveriam contradições sociais e psíquicas (ADORNO; HORKHEIMER, 1985). Do ponto de vista clínico, a promessa ignora que a eficácia terapêutica depende do encontro transferencial e da ética do desejo, não de predições estatísticas (FREUD, 1912/2010; LACAN, 1998).
Sustenta-se aqui que há uma impossibilidade estruturalem chamar de “terapia” a interação automatizada com sistemas de IA, ainda que esses sistemas possam auxiliar processos informacionais. A impossibilidade não é técnica (falta de precisão momentânea), mas lógica e ética: o dispositivo terapêutico não se reduz a processamento de linguagem, pois envolve responsabilidade, desejo, corpo e ato, dimensões que não podem ser terceirizadas ao algoritmo.
O fetiche da técnica e a racionalidade instrumental
A Escola de Frankfurt descreveu como o esclarecimento, ao tornar-se razão instrumental, converte meios em fins, fazendo da técnica um princípio de dominação (ADORNO; HORKHEIMER, 1985). Em tal regime, o valor do conhecer reside na utilidade e no controle; problemas humanos passam a ser tratados como questões de engenharia. Esse movimento produz semiformação, sujeitos ajustados às exigências sistêmicas, mas esvaziados de reflexão crítica (ADORNO, 2006).
O “terapizar” por IA ressoa essa lógica: sofrimento é traduzido em dados; fala, em sinal; singularidade, em desvio a ser recondicionado. O resultado é uma clínica sem clínica, um gerenciamento dos afetos que promete cura pela via da eficiência. Tal promessa é um fetiche porque oculta as relações sociais e institucionais que produzem sofrimento, imputando ao indivíduo uma adaptação performativa (PUCCI, 2010; BIRMAN, 2003).
O que a IA faz e o que não pode fazer
Modelos estatísticos de linguagem predizem a próxima palavra a partir de grandes corpora. Sua “inteligência” reside em regularidades probabilísticas, não em compreensão semântica ou implicação ética (BENDER; GEBRU; MC MILLAN-MAJOR; SHMITCHEL, 2021). Tais sistemas podem gerar textos plausíveis, mas carecem de intencionalidade, responsabilidade e situação transferencial.
No cuidado, não basta coerência textual; importa quem fala a quem, sob que transferência, com que compromisso e efeitos de ato. A clínica trabalha com equívoco, silêncio, lapsos e acontecimentos que furam protocolos. Algoritmos, por definição, buscam reduzir o equívoco a erro e o acontecimento a outlier, exatamente o que, em análise, interessa ler (LACAN, 1998; LACAN, 1991).
Assim, mesmo que sistemas de IA auxiliem triagens, lembretes ou sumarização de prontuários, o coração do tratamento, operação transferencial e decisão clínica, permanece irredutível ao cálculo (FREUD, 1937/2016; DUNKER, 2017).
Transferência, desejo e ato: por que a clínica é insubstituível
Freud compreende desde cedo que a transferência é condição do tratamento: nela, repetições e fantasmas se atualizam no laço, permitindo trabalho interpretativo e atos que desamarram o sintoma (FREUD, 1912/2010). Lacan radicaliza: a direção do tratamento não visa adaptação, mas a ética do desejo; o analista ocupa um lugar que o sujeito supõe saber, para que, ao final, esse saber caia (LACAN, 1998; 1991).
Nenhum sistema pode ocupar tal lugar porque não responde pelo desejo nem pode sustentar a posição ética de “não ceder” diante do mal-estar. Ao algoritmo falta corpo, mortalidade e responsabilidade, elementos que, longe de acessórios, são a própria textura do cuidado. A tentativa de simular transferência por meio de “personas” computacionais resulta em encenação sem sujeito, cujo efeito tende a ser sugestão, não análise (SAFATLE, 2024; DUNKER, 2018).
Governo algorítmico da vida: biopolítica, dados e mercado
O avanço das plataformas introduz uma economia política do dado em saúde mental: perfis, métricas de humor, engajamento e intervenções padronizadas compõem dispositivos de governo das condutas (ZUBOFF, 2019). Nessa topologia, sofrimento vira capital informacional, e “tratamentos” tornam-se serviços de retenção e modulação afetiva.
A crítica biopolítica mostra que tecnologias de cuidado podem operar como técnicas de normalização, produzindo populações governáveis (FOUCAULT, 2008). O entusiasmo com “escalabilidade” frequentemente desloca a pergunta clínica (“o que se passa com este sujeito?”) para a pergunta gerencial (“como reduzir risco e custo médios?”). O preço é a redução do conflito à métrica, com efeitos de silenciamento e culpabilização (BIRMAN, 2003; SAFATLE, 2021).
Riscos epistêmicos, clínicos e políticos
Há riscos epistêmicos: a crença de que coerência textual equivale a compreensão confunde simulação com saber (MOROZOV, 2013; BENDER et al., 2021). Há riscos clínicos: respostas plausíveis podem induzir sugestão, reforçar defesas e adiantar interpretações sem sustentação transferencial, produzindo iatrogenias. Riscos políticos: a privatização do cuidado por plataformas opacas intensifica assimetrias e captura dados íntimos, convertendo sofrimento em ativo (ZUBOFF, 2019).
Como adverte Turkle, delegar a máquinas a escuta emocional empobrece a experiência intersubjetiva e erode a responsabilidade relacional, ainda que usuários relatem conforto imediato (TURKLE, 2011; 2015). A “atenção” maquinal, por mais responsiva, não responde, porque não pode se comprometer.
Impossibilidade, não proibição
Falar em impossibilidade não é propor proibição da tecnologia. Trata-se de distinguir lugar e função. Tecnologias podem apoiar a clínica: logística, acessibilidade, tradução, prontuários, educação. O impossível está em substituiro laço terapêutico por automação sem perder o que faz da terapia terapia. Sem transferência, sem responsabilidade e sem ato, tem-se aconselhamento automatizado, não cuidado clínico (FREUD, 1937/2016; LACAN, 1991).
A tarefa crítica, então, não é demonizar a IA, mas desfetichizá-la: recusar que ela encarne a promessa de resolver, por cálculo, contradições que são da ordem do social e do desejo (ADORNO; HORKHEIMER, 1985; ADORNO, 2006). Cuidar implica sustentar conflitos, não domesticá-los por métricas.
Considerações finais
O fetiche da técnica — hoje articulado à IA generativa — reencena a esperança de que a razão instrumental cure o mal-estar. A psicanálise e a teoria crítica lembram que a cura é, quando muito, uma transformação do laço e do dizer, não um ajuste automático. Por isso, há uma impossibilidade estrutural em nomear como “terapia” a interação com sistemas de IA: falta-lhe o sujeito, o corpo, a responsabilidade, o desejo e a transferência que fazem da clínica um lugar ético.
Ao reconhecer a utilidade auxiliar de tecnologias e, ao mesmo tempo, seus limites, evitamos tanto o tecnofetichismo quanto o ludismo. O desafio é político: garantir que as inovações sirvam ao cuidado, e não que o cuidado seja reconfigurado para servir à lógica da inovação.
Referências
ADORNO, Theodor W. Educação e emancipação. 5. ed. Rio de Janeiro: Paz e Terra, 2006.
ADORNO, Theodor W.; HORKHEIMER, Max. Dialética do esclarecimento: fragmentos filosóficos. 2. ed. Rio de Janeiro: Zahar, 1985.
BENDER, Emily M.; GEBRU, Timnit; MC MILLAN-MAJOR, Angelina; SHMITCHEL, Shmargaret. On the dangers of stochastic parrots: Can language models be too big? Proceedings of the ACM Conference on Fairness, Accountability, and Transparency, p. 610-623, 2021.
BIRMAN, Joel. Mal-estar na atualidade: a psicanálise e as novas formas de subjetivação. 3. ed. Rio de Janeiro: Civilização Brasileira, 2003.
DUNKER, Christian Ingo Lenz. Teoria da transformação em psicanálise: da clínica à política. Psicologia USP, São Paulo, v. 28, n. 3, p. 404-415, 2017.
DUNKER, Christian Ingo Lenz. O ato cardinal entre psicanálise e democracia. Estudos Avançados, São Paulo, v. 32, n. 94, p. 257-270, 2018.
FOUCAULT, Michel. Nascimento da biopolítica: curso no Collège de France (1978-1979). São Paulo: Martins Fontes, 2008.
FREUD, Sigmund. Observações sobre o amor de transferência (1912). In: FREUD, Sigmund. Obras completas, v. 10. Tradução de Paulo César de Souza. São Paulo: Companhia das Letras, 2010. p. 193-210.
FREUD, Sigmund. Análise terminável e interminável (1937). In: FREUD, Sigmund. Obras completas, v. 16. Tradução de Paulo César de Souza. São Paulo: Companhia das Letras, 2016. p. 287-326.
.
LACAN, Jacques. Escritos. Tradução de Vera Ribeiro. Rio de Janeiro: Jorge Zahar, 1998.
LACAN, Jacques. O seminário, livro 7: A ética da psicanálise (1959-1960). Texto estabelecido por Jacques-Alain Miller. Rio de Janeiro: Jorge Zahar, 1991.
MOROZOV, Evgeny. To save everything, click here: The folly of technological solutionism. New York: PublicAffairs, 2013.
PUCCI, Bruno. Teoria crítica e educação: a questão da formação cultural na Escola de Frankfurt. 2. ed. Petrópolis: Vozes, 2010.
SAFATLE, Vladimir. Maneiras de transformar mundos: Lacan, política e emancipação. São Paulo: Autêntica/Boitempo, 2021.
SAFATLE, Vladimir. Dar corpo ao impossível: o ato, a política e o real. São Paulo: Ubu, 2024.
TURKLE, Sherry. Alone together: Why we expect more from technology and less from each other. New York: Basic Books, 2011.
TURKLE, Sherry. Reclaiming conversation: The power of talk in a digital age. New York: Penguin, 2015.
ZUBOFF, Shoshana. The age of surveillance capitalism. New York: PublicAffairs, 2019.