broken image
broken image
  • Atualidade
  • Explorar
  • Podcasts
  • Inbox
  • Contactos
  • …  
    • Atualidade
    • Explorar
    • Podcasts
    • Inbox
    • Contactos
broken image
broken image
  • Atualidade
  • Explorar
  • Podcasts
  • Inbox
  • Contactos
  • …  
    • Atualidade
    • Explorar
    • Podcasts
    • Inbox
    • Contactos
broken image

Inteligência Artificial como terapeuta? Uma tendência em ascensão

· Explorar

Ao longo dos últimos anos, a Inteligência Artificial (IA) passou de recurso técnico para presença constante no quotidiano. Em 2025, a utilização da IA generativa vai muito além da automatização de tarefas: está, cada vez mais, a entrar no campo do apoio emocional. Segundo um relatório recente da Harvard Business Review, três das principais utilizações da IA neste ano estão ligadas ao suporte pessoal e profissional - incluindo funções de acompanhamento emocional, desenvolvimento pessoal e até “companhia”.

O estudo “Os 100 principais usos da IA generativa em 2025” revela uma tendência clara: o foco da IA está a mudar do “fazer por nós” para o “estar connosco”.

IA emocional: o novo normal?

A utilização da IA para apoio emocional - algo que parecia impensável há apenas alguns anos - está a ganhar espaço entre utilizadores em todo o mundo. Ferramentas como o ChatGPT, o Copilot da Microsoft ou apps como Replika, Wysa e Youper são cada vez mais procuradas não só para obter respostas rápidas, mas também para refletir sobre emoções, encontrar equilíbrio e ganhar clareza mental.

E isso está a mudar a forma como a IA é vista: não apenas como assistente, mas como um recurso de autoconhecimento.

Da produtividade ao autodesenvolvimento

Em 2024, os principais usos da IA eram orientados para a geração de ideias, apoio à escrita e pesquisa de informação - todos contextos muito ligados à produtividade. No entanto, em 2025, essas funcionalidades perderam protagonismo. Gerar ideias, por exemplo, caiu para o sexto lugar, enquanto a procura por respostas rápidas passou da terceira para a décima terceira posição.

A mudança de paradigma é evidente. A IA deixou de ser uma ferramenta apenas funcional, para se tornar algo mais relacional. Ou seja, as pessoas procuram na IA não só soluções, mas também compreensão e orientação.

O que procuramos na IA?

A utilização da IA como apoio emocional está ligada a várias motivações:

  • Reflexão sobre hábitos pessoais
  • Gestão de prioridades e tomada de decisões
  • Identificação de padrões de pensamento negativointeligenc
  • Ajuda em momentos de ansiedade ou stress

Estão a surgir cada vez mais apps com foco em bem-estar emocional, que prometem ajudar o utilizador a meditar, respirar melhor, lidar com emoções difíceis ou identificar pensamentos disfuncionais.

Estas aplicações integram tecnologias como reconhecimento facial e de voz, capazes de analisar emoções em tempo real, permitindo uma interação que se pretende mais “humana”. Em alguns casos, é até possível cruzar esses dados com indicadores de saúde para obter um diagnóstico preliminar ou sugestões de melhoria.

Tecnologia que “escuta” - e responde

A integração de IA com sensores biométricos e dados de saúde está a abrir portas a experiências mais personalizadas. Um assistente de IA pode, por exemplo, detetar sinais de ansiedade na voz do utilizador e sugerir exercícios de respiração ou pausas. Pode também adaptar a linguagem e o tom de resposta consoante o estado emocional identificado.

No entanto, esta capacidade de resposta emocional levanta novas questões.

O risco da ilusão de empatia

Apesar do potencial, especialistas alertam para os riscos psicológicos e éticos da utilização da IA como terapeuta informal. Uma das principais preocupações está na dificuldade em distinguir entre conselhos gerados por IA e orientações profissionais reais. Com linguagem sofisticada e terminologia credível, os modelos de IA podem transmitir uma falsa sensação de autoridade — e os utilizadores podem seguir recomendações que não são adequadas ou até mesmo prejudiciais.

Além disso, a privacidade dos dados torna-se um ponto crítico. Muitas destas aplicações recolhem e armazenam informações sensíveis, como registos emocionais, padrões de comportamento e até métricas biométricas. Existe o risco real de que essas informações sejam utilizadas para treinar novos modelos de IA ou até partilhadas com terceiros, sem o devido consentimento.

IA emocional: complemento ou substituto?

Importa fazer a distinção: a IA pode ser uma ferramenta útil de apoio, mas não deve substituir o acompanhamento profissional, principalmente em situações de saúde mental mais delicadas.

Vários países já começaram a debater o enquadramento ético e legal destas ferramentas, com destaque para recomendações da comunidade médica que alertam para a necessidade de supervisão e transparência. A União Europeia, por exemplo, tem vindo a trabalhar em regulamentações específicas no âmbito da Lei da IA (AI Act), que incluem medidas para proteger os utilizadores de riscos associados à utilização de modelos generativos em contextos sensíveis.

O que esperar do futuro?

A linha entre IA e relações humanas vai continuar a esbater-se, especialmente à medida que os modelos se tornam mais sofisticados e contextualmente “inteligentes”. O desafio será equilibrar a utilidade emocional da IA com os limites éticos e funcionais do que a tecnologia pode realmente oferecer.

Profissionais de tecnologia, inovação e saúde têm aqui uma responsabilidade acrescida: contribuir para que estas soluções sejam seguras, éticas e benéficas, sem criar dependência emocional nem comprometer a privacidade dos utilizadores.

A Inteligência Artificial está a reinventar o seu papel na sociedade - de ferramenta funcional a parceira de reflexão. Esta transformação pode ser positiva, desde que usada com consciência e complementada com acompanhamento humano quando necessário. A tecnologia pode ajudar-nos a conhecer-nos melhor. Mas não pode, nem deve, substituir a complexidade e empatia de uma verdadeira relação humana.

Fonte: RR

Subscrever
Anterior
IA ao Volante: Como o Humano se Torna Mais Poderoso na...
Próximo
IA nas Escolas: Risco ou Oportunidade? O que Devemos...
 Voltar ao site
Uso de cookies
Usamos cookies para melhorar a experiência de navegação, a segurança e a coleta de dados. Ao aceitar, você concorda com o uso de cookies para publicidade e análise. Você pode alterar suas configurações de cookies a qualquer momento. Saiba mais
Aceitar todos
Configurações
Rejeitar Todos
Configurações de cookies
Cookies Necessários
Esses cookies habilitam funcionalidades essenciais, como segurança, gerenciamento de rede e acessibilidade. Esses cookies não podem ser desligados.
Analytics Cookies
Estes cookies ajudam a entender melhor como os visitantes interagem com nosso site e ajudam a descobrir erros.
Preferências Cookies
Estes cookies permitem que o site se lembre das escolhas que você fez para fornecer funcionalidade e personalização aprimoradas.
Salvar