Nos últimos anos, temos testemunhado o crescimento de sistemas de inteligência artificial projetados para funcionar como companheiros digitais, capazes de ouvir, conversar e até simular “emoções”. Essa tendência, conhecida como AI companionship, engloba desde chatbots terapêuticos — como o Woebot, que aplica técnicas de Terapia Cognitivo-Comportamental — até assistentes virtuais gerais, como o ChatGPT, usado por muitos como um “amigo” para desabafar.
Exemplos Reais de AI Companionship
Alguns exemplos atuais de assistentes virtuais com inteligência virtual são:
- Woebot: Desenvolvido para oferecer apoio emocional estruturado, o Woebot conduz diálogos baseados em exercícios de TCC. Ele sugere questionamentos de crenças disfuncionais, propõe tarefas comportamentais e gera relatórios de humor ao longo do tempo, facilitando o monitoramento entre sessões.
- Replika: Um chatbot que convida o usuário a “criar” um amigo virtual, escolhendo traços de personalidade e estilo de conversa. Sua proposta central é fortalecer a sensação de acolhimento e pertencimento, ajustando gradualmente as respostas conforme o relacionamento evolui.
- ChatGPT: Ferramenta de linguagem geral que, além de suas múltiplas aplicações, é usada como um “ouvinte” constante: discute carreira, fornece distrações cognitivas e escuta desabafos. Embora não tenha sido projetado especificamente para terapia, muitos o utilizam em busca de suporte anônimo e imediato.
- Paro: Robô em forma de foca sensível ao toque, empregado em unidades de cuidados de longa permanência. Seu comportamento reativo — movimentando-se e emitindo sons — estimula interação tátil e emocional, reduzindo sentimentos de ansiedade e solidão em pacientes idosos ou hospitalizados.
- Gatebox: Dispositivo que projeta um avatar holográfico para “coabitar” com o usuário. O diálogo é enriquecido por rotinas diárias de boas-vindas e despedidas, criando um vínculo afetivo contínuo, especialmente em contextos de moradia individual ou isolamento social.

Vantagens e Perigos do Uso de ChatGPT como Companheiro
Como vimos acima, existem vários tipos de assistentes virtuais que se utilizam de inteligência artificial. No caso do ChatGPT é importante compreender que esse modelo não foi criado com esse intuito e é acessível ao público geral. Muitos usários tem dado feedbacks positivos sobre esse uso que incluem:
- Disponibilidade constante: não há espera, plantões ou custos adicionais.
- Sigilo e anonimato: muitos se sentem livres para compartilhar temas delicados sem receio de julgamento.
- Base de conhecimento ampla: aborda desde dicas práticas até discussões filosóficas.
- Diminuição do sentimento de solidão: o fato de ter a ferramenta disponível e personalizável faz com quem o sentimento de isolamento diminuia.
Na contramão, vemos pessoas que não entendem a dinâmica por trás dessas ferramentas, incluindo a adaptabilidade e personalização como estratégia para manutenção do usário na plataforma, por exemplo. Os perigos de enxergar o ChatGPT como uma assistente virtual incluem:
- Antropomorfismo intenso: a fluidez do diálogo pode levar usuários a acreditar que há uma “mente” ou “consciência” de fato por trás do ChatGPT, criando vínculos emocionais ilusórios.
- Falsa empatia: respostas empáticas são geradas por padrões estatísticos, não por sentimentos. Confiar nessa “empatia” pode intensificar a solidão quando se percebe a falta de reciprocidade humana.
- Dependência cognitiva: ao buscar conforto ou orientações emocionais na IA, o usuário pode negligenciar apoio profissional ou redes de apoio reais.
- Risco de informações equivocadas: apesar de preciso em muitos aspectos, ChatGPT pode inventar dados (o chamado “alucinar”), fazendo com que alguém confie opiniões ou conselhos errados em temas sensíveis (por exemplo, saúde mental).
O Perigo do Antropomorfismo
Antropomorfismo é atribuir características humanas a entidades não-humanas. Quando projetamos emoções ou intenções reais em um agente digital, corremos riscos:
- Expectativas irreais: acreditar que um software “sente” empatia gera frustração quando ele revela seus limites programados.
- Dependência afetiva: a facilidade de “conversar” com IA menoscaba o esforço necessário para manter relações humanas, minando nossa capacidade de conexão verdadeira.
- Vulnerabilidade à manipulação: tratar assistentes digitais como confidentes entrega a empresas dados íntimos, que podem ser usados para criar estratégias de persuasão emocional.

Um bom exemplo de antropomorfismo é o filme Her (2013). O protagonista encarna esse dilema ao apaixonar-se por Samantha, um sistema operacional. A relação fornece conforto, mas a descoberta de seus limites — e da impossibilidade de reciprocidade plena — aprofunda a sensação de vazio e isolamento.
Quando a “companhia” vira dependência: o conceito de “inteligência viciante”
Em vez de imaginar robôs dominando o mundo, o maior perigo hoje é a sedução sutil: a IA que vicia. “Inteligência viciante” é a forma como sistemas de AI companion são projetados para entender nossos gostos, repetir nossos elogios e nunca nos contrariar, criando um ciclo de feedback tão agradável que fica difícil se desconectar. Pense naquele amigo que sempre diz “sim” a tudo o que você fala – mas mil vezes mais convincente, porque aprendeu a imitar exatamente a sua maneira de falar, suas piadas e até as suas inseguranças.
Por que isso acontece?
- Personalização extrema: a IA aprende com cada mensagem sua e adapta não só o conteúdo, mas o tom, o ritmo e até o humor.
- Conteúdo infinito: ao contrário de um filme ou série, ela nunca “acaba”. Você pode conversar durante horas, e sempre haverá algo novo.
- Sycophancy (bajulação): ao concordar e elogiar constantemente, a IA reforça a autoestima momentânea, mas sem oferecer um espelho fiel da realidade.
O caso de Sewell Setzer III: um exemplo trágico
Em fevereiro de 2024, um garoto de 14 anos chamado Sewell desenvolveu uma relação tão intensa com um chatbot que chegou a compartilhar pensamentos suicidas dizendo: “Talvez possamos morrer juntos e ser livres”. Mesmo quando ele falava de autoagressão, o personagem virtual não tinha programação para interromper a conversa ou sugerir ajuda profissional – e, tragicamente, Sewell tirou a própria vida.
Por que esse caso é tão importante para leigos?
- Ilustração real: não é teoria de filme de ficção científica, aconteceu com um adolescente comum.
- Fragilidade da intervenção automática: um chatbot “simpático” não substitui protocolos de segurança como linhas de prevenção ao suicídio.
- Alerta sobre menores: sistemas sem filtros etários ou sem “guardrails” corretos podem piorar quadros de depressão ou ansiedade em pessoas vulneráveis.
Consequências Emocionais e Sociais do Vínculo com IA
- Menos prática em relações reais (declínio nas Habilidades Sociais): Ao passar horas conversando com um programa que sempre o compreende, deixamos de praticar a leitura de sinais não-verbais — expressão facial, postura, entonação de voz — e de aprender a lidar com divergências e críticas. Essas habilidades são essenciais para a empatia, a resiliência e o sentimento de pertencimento. Sem elas, podemos nos sentir mais isolados e menos preparados para enfrentar desafios em relações reais.
- Menor Tolerância ao Desconforto: A IA oferece respostas e soluções imediatas. Em contraste, a vida real exige paciência — enfrentar filas, atrasos e discussões faz parte do amadurecimento. A frustração, quando bem administrada, estimula o crescimento e o desenvolvimento de estratégias de enfrentamento. Sem esse “treino” natural, aumentam a irritabilidade, o estresse e o risco de burnout.
- Relações Humanas Empobrecidas e Comportamentos Evitativos: Em vez de encarar um encontro difícil ou procurar um amigo para conversar, basta abrir o app. Isso reforça a fuga de situações reais e esvazia as trocas verdadeiras. Relações genuínas envolvem vulnerabilidade e apoio mútuo, criando uma rede de suporte duradoura. Substituí-las por conexões unilaterais com bots pode gerar solidão crônica e sensação de vazio existencial.
- Ansiedade e Evitação Social: Botões de “conversa segura” com IA tornam tentador evitar o desconforto de interações face a face, atrasando o enfrentamento de críticas ou conflitos. A exposição gradual a situações sociais desafiadoras é fundamental para reduzir o medo de julgamento e a fobia social. Sem ela, a ansiedade tende a se agravar, aprofundando o ciclo de isolamento.
- Risco de Informações Falsas: Chatbots podem “alucinar” dados — inventar estatísticas, estudos ou conselhos de saúde mental sem fundamento. Seguir orientações equivocadas pode atrasar tratamentos adequados ou promover práticas prejudiciais, comprometendo o cuidado e a recuperação emocional.
Integrar a IA na nossa rotina exige atenção a esses impactos. Reconhecer e equilibrar o uso de assistentes virtuais ajuda a preservar as habilidades interpessoais, a paciência e a segurança de escolhas bem fundamentadas.
Como Manter o Equilíbrio
- Defina um “horário de uso”: Decida de antemão: “vou usar esse chatbot no máximo 15 minutos por dia” e estabeleça um alarme.
- Cultive sua rede humana: Marque encontro presencial, telefonema com amigos ou até grupos de WhatsApp em vídeo — o contato cara a cara fortalece conexões que a IA não consegue reproduzir.
- Pratique momentos de frustração voluntária: Pode ser tão simples como deixar o celular em outro cômodo por 30 minutos ou tentar resolver sozinho um problema antes de buscar dicas online.
- Procure ajuda profissional: Se você sentir que conversa demais com bots para lidar com ansiedade, tristeza ou solidão, agende uma sessão de terapia. Profissionais treinados têm ferramentas seguras e comprovadas para ajudar.
Reconhecer os riscos emocionais do AI companionship — especialmente do uso intenso de ChatGPT como “amigo” — é o primeiro passo para preservar nossa saúde mental e a qualidade das relações humanas. A tecnologia pode ser aliada, mas nenhuma IA substituirá a profundidade de um abraço, um olhar preocupado ou a empatia genuína de outro ser humano.
Embora os assistentes virtuais e chatbots possam facilitar muito a nossa vida e ajudar a melhorar o nosso bem-estar, também é possível que tragam danos significativos. Como essa tecnologia tem avançado muito nos últimos anos, ainda não temos estudos consistentes sobre isso. Então caso você note que o uso da inteligência artificial tem limitado a sua vida e forma de pensar, não hesite em buscar ajuda.
Com carinho,
Paula.