Início » Por que uma Inteligência Artificial não pode ser seu psicanalista e, talvez, nem mesmo um bom ouvinte?

Por que uma Inteligência Artificial não pode ser seu psicanalista e, talvez, nem mesmo um bom ouvinte?

por Redação
por-que-uma-inteligencia-artificial-nao-pode-ser-seu-psicanalista-e,-talvez,-nem-mesmo-um-bom-ouvinte?


Por que uma Inteligência Artificial não pode ser seu psicanalista e, talvez, nem mesmo um bom ouvinte?
Adobe Stock
Você anda de mau com a vida diante de tantas demandas, acorda com dificuldade de sair da cama, sua sessão de terapia foi no dia anterior e os amigos confidentes estão inacessíveis. Sem nem refletir muito, senta diante do computador, olha para a tela e, para driblar o desânimo que bate cedo pela manhã, decide conversar com sua ferramenta predileta de inteligência artificial. Escreve sobre suas mazelas e aguarda pela resposta. E o que aparece na tela, além de te surpreender, consegue até arrancar um leve sorriso.
A cena acima, antes improvável, agora é cotidiana. Mas ela traz à tona uma pergunta que se tornou recorrente: a inteligência artificial (IA) pode substituir o psicanalista? Seriam os algoritmos capazes de inferir comportamentos conscientes a partir de dados inconscientes ou não psíquicos, aproximando processos computacionais das dinâmicas do psiquismo?
Esse é o tema de um artigo que publiquei este ano ao lado dos colegas Eduardo Zaidhaft e Ramon Reis, no âmbito do Programa de Pós-Graduação em Psicologia Clínica da PUC-Rio, em que investigamos as possibilidades e limitações de uma prática analítica mediada por algoritmos.
Ilusão da cognição computacional
Desde a década de 1990, quando o supercomputador Deep Blue venceu o campeão mundial de xadrez Garry Kasparov, temos nos habituado à ideia de que as máquinas podem superar os humanos em tarefas complexas. O feito foi impressionante: um algoritmo derrotando um dos maiores enxadristas da história. Mais do que isso, o episódio acendeu uma esperança (ou um receio) equivocada: a de que a cognição da máquina — se é que ela existe — poderia ser superior à humana.
Embora Kasparov tenha conseguido empatar em algumas partidas, seu esforço foi notório, “enquanto a máquina não sentia nada”. A frieza algorítmica passou a ser vista não como limitação, mas como virtude. Esse imaginário deu impulso às abordagens computacionais do problema da mente: a suposição de que pensar, sentir e compreender seriam processos reproduzíveis por sistemas de manipulação simbólica.
Mas será que são?
O que os algoritmos (não) fazem
Como define Terrence Deacon em seu livro Incomplete nature: how mind emerged from matter, a computação é um processo no qual uma parte do mecanismo altera outra, em série, até executar uma instrução. Os algoritmos são sequências finitas de ações executáveis — descrições do que deve ocorrer —, mas não propriamente processos físicos em si mesmos. São padrões, estruturas abstratas que operam sobre símbolos, sem necessariamente compreender seu significado.
Essa lógica levou muitos cognitivistas a acreditar que bastaria modelar adequadamente a mente humana em linguagem computacional para simular seus processos. Mas, ao fazê-lo, negligenciaram que representações mentais não são apenas sintáticas, mas são também semânticas, intencionais e normativas.
O risco do “iPsicanalista”
Se por um lado a tecnologia tem muito a oferecer às ciências da mente, por outro, há um risco evidente de excessos. O “iPaciente” — termo cunhado por Abraham Verghese, em 2008 — é aquele cuja clínica se reduz a índices quantificáveis, eclipsando o sofrimento subjetivo e interpessoal. Hoje, o desafio vai além: chegamos à figura do “iPsicanalista”, um chatbot que tenta assumir a função analítica.
Com a crescente popularidade de terapias automatizadas que reivindicam referências à psicanálise, é urgente que a própria psicanálise se posicione: um robô pode ser psicanalista? E, se não pode, por quê?
A resposta passa, necessariamente, pela crítica às concepções computacionais de sujeito e pelos limites do que é formalizável em linguagem algorítmica.
O quarto chinês e o vazio de sentido
Um dos argumentos mais contundentes contra a equivalência entre mente humana e máquina vem do filósofo John Searle, com seu famoso experimento mental: o quarto chinês. Imagine uma pessoa trancada em uma sala, sem entender chinês, mas com um manual de regras que permite responder a símbolos com base apenas em sua forma, sem saber o que significam.
Do lado de fora, quem observa acredita que a pessoa dentro da sala “sabe chinês”, já que responde adequadamente às perguntas. No entanto, ela apenas manipula signos, mas não compreende nada.
Esse experimento mostra que a sintaxe não é suficiente para gerar semântica. Manipular signos não equivale a atribuir sentido. Uma IA pode parecer inteligente, mas isso não implica senciência, afeto ou desejo. Como diz Deacon, a agência do computador é apenas a agência deslocada de seu projetista humano.
Sem desejo, sem análise
Ao jogar xadrez com Deep Blue, Kasparov não enfrentava uma entidade senciente, mas um conjunto de decisões humanas codificadas em uma máquina. O mesmo vale para a IA que hoje tenta responder questões emocionais ou existenciais: ela pode simular diálogo, mas não está ali. Não sente, não deseja, não interpreta.
A psicanálise — se quiser preservar sua função insubstituível — deve se concentrar não na manipulação sintática de significantes, mas na escuta do desejo, no manejo do afeto, na construção de sentido compartilhado. Mesmo abordagens que valorizam o sistema fechado da linguagem devem reconhecer que o que as máquinas não têm é justamente o que constitui a experiência psicanalítica: desejo, sentido e afeto.
Por isso, a psicanálise não pode ser reduzida a um algoritmo. Ela existe no espaço entre palavras, no silêncio entre frases, na transferência entre sujeitos. Um chatbot pode conversar com você pela manhã. Mas ouvir, de fato — isso ainda é função do analista.
Monah Winograd recebeu financiamento da FAPERJ, CNPq e CAPES.
LEIA TAMBÉM:
Inteligência artificial projeta ‘mísseis’ do sistema imunológico para atacar o câncer com precisão
Escrever texto com ChatGPT faz mal ao cérebro, sugere estudo
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Pesquisadores da Unicamp criam laboratório de inteligência artificial que auxilia na saúde

você pode gostar

SAIBA QUEM SOMOS

Somos um dos maiores portais de noticias de toda nossa região, estamos focados em levar as melhores noticias até você, para que fique sempre atualizado com os acontecimentos do momento.

CONTATOS

noticias recentes

as mais lidas

Jornal de Minas © Todos direitos reservados à Tv Betim Ltda®