Ao longo dos últimos anos, a Inteligência Artificial (IA) passou de recurso técnico para presença constante no quotidiano. Em 2025, a utilização da IA generativa vai muito além da automatização de tarefas: está, cada vez mais, a entrar no campo do apoio emocional. Segundo um relatório recente da Harvard Business Review, três das principais utilizações da IA neste ano estão ligadas ao suporte pessoal e profissional - incluindo funções de acompanhamento emocional, desenvolvimento pessoal e até “companhia”.
O estudo “Os 100 principais usos da IA generativa em 2025” revela uma tendência clara: o foco da IA está a mudar do “fazer por nós” para o “estar connosco”.
IA emocional: o novo normal?
A utilização da IA para apoio emocional - algo que parecia impensável há apenas alguns anos - está a ganhar espaço entre utilizadores em todo o mundo. Ferramentas como o ChatGPT, o Copilot da Microsoft ou apps como Replika, Wysa e Youper são cada vez mais procuradas não só para obter respostas rápidas, mas também para refletir sobre emoções, encontrar equilíbrio e ganhar clareza mental.
E isso está a mudar a forma como a IA é vista: não apenas como assistente, mas como um recurso de autoconhecimento.
Da produtividade ao autodesenvolvimento
Em 2024, os principais usos da IA eram orientados para a geração de ideias, apoio à escrita e pesquisa de informação - todos contextos muito ligados à produtividade. No entanto, em 2025, essas funcionalidades perderam protagonismo. Gerar ideias, por exemplo, caiu para o sexto lugar, enquanto a procura por respostas rápidas passou da terceira para a décima terceira posição.
A mudança de paradigma é evidente. A IA deixou de ser uma ferramenta apenas funcional, para se tornar algo mais relacional. Ou seja, as pessoas procuram na IA não só soluções, mas também compreensão e orientação.
O que procuramos na IA?
A utilização da IA como apoio emocional está ligada a várias motivações:
- Reflexão sobre hábitos pessoais
- Gestão de prioridades e tomada de decisões
- Identificação de padrões de pensamento negativointeligenc
- Ajuda em momentos de ansiedade ou stress
Estão a surgir cada vez mais apps com foco em bem-estar emocional, que prometem ajudar o utilizador a meditar, respirar melhor, lidar com emoções difíceis ou identificar pensamentos disfuncionais.
Estas aplicações integram tecnologias como reconhecimento facial e de voz, capazes de analisar emoções em tempo real, permitindo uma interação que se pretende mais “humana”. Em alguns casos, é até possível cruzar esses dados com indicadores de saúde para obter um diagnóstico preliminar ou sugestões de melhoria.
Tecnologia que “escuta” - e responde
A integração de IA com sensores biométricos e dados de saúde está a abrir portas a experiências mais personalizadas. Um assistente de IA pode, por exemplo, detetar sinais de ansiedade na voz do utilizador e sugerir exercícios de respiração ou pausas. Pode também adaptar a linguagem e o tom de resposta consoante o estado emocional identificado.
No entanto, esta capacidade de resposta emocional levanta novas questões.
O risco da ilusão de empatia
Apesar do potencial, especialistas alertam para os riscos psicológicos e éticos da utilização da IA como terapeuta informal. Uma das principais preocupações está na dificuldade em distinguir entre conselhos gerados por IA e orientações profissionais reais. Com linguagem sofisticada e terminologia credível, os modelos de IA podem transmitir uma falsa sensação de autoridade — e os utilizadores podem seguir recomendações que não são adequadas ou até mesmo prejudiciais.
Além disso, a privacidade dos dados torna-se um ponto crítico. Muitas destas aplicações recolhem e armazenam informações sensíveis, como registos emocionais, padrões de comportamento e até métricas biométricas. Existe o risco real de que essas informações sejam utilizadas para treinar novos modelos de IA ou até partilhadas com terceiros, sem o devido consentimento.
IA emocional: complemento ou substituto?
Importa fazer a distinção: a IA pode ser uma ferramenta útil de apoio, mas não deve substituir o acompanhamento profissional, principalmente em situações de saúde mental mais delicadas.
Vários países já começaram a debater o enquadramento ético e legal destas ferramentas, com destaque para recomendações da comunidade médica que alertam para a necessidade de supervisão e transparência. A União Europeia, por exemplo, tem vindo a trabalhar em regulamentações específicas no âmbito da Lei da IA (AI Act), que incluem medidas para proteger os utilizadores de riscos associados à utilização de modelos generativos em contextos sensíveis.
O que esperar do futuro?
A linha entre IA e relações humanas vai continuar a esbater-se, especialmente à medida que os modelos se tornam mais sofisticados e contextualmente “inteligentes”. O desafio será equilibrar a utilidade emocional da IA com os limites éticos e funcionais do que a tecnologia pode realmente oferecer.
Profissionais de tecnologia, inovação e saúde têm aqui uma responsabilidade acrescida: contribuir para que estas soluções sejam seguras, éticas e benéficas, sem criar dependência emocional nem comprometer a privacidade dos utilizadores.