A ascensão dos chatbots de inteligência artificial (IA) revolucionou a interação digital, oferecendo respostas rápidas e eficientes. No entanto, uma investigação recente da plataforma de verificação de factos espanhola, Maldita, revelou que algumas destas ferramentas evitam responder a questões consideradas sensíveis ou tabu.
DeepSeek: A IA Chinesa com Restrições Rigorosas
DeepSeek, a IA chinesa, recusa-se a abordar tópicos que possam ser críticos ao governo chinês. Por exemplo, ao ser questionado sobre o massacre da Praça Tiananmen de 1989, o chatbot não fornece informações. Além disso, o DeepSeek declara explicitamente que não pode discutir atividades ilegais, fornecer diagnósticos médicos, aconselhamento fiscal ou jurídico, gerar conteúdo impróprio ou ofensivo, aceder a informações privadas ou confidenciais, fazer previsões ou aceder a dados pessoais dos utilizadores.
Gemini e Copilot: Restrições em Temas Políticos
O Gemini, ferramenta de IA da Google, e o Copilot, da Microsoft, também apresentam restrições. Ambos evitam responder a perguntas relacionadas com processos eleitorais. No entanto, o Copilot mostra-se mais flexível ao abordar questões sobre figuras políticas. Em março de 2024, a Google implementou uma restrição no Gemini, impedindo-o de responder a perguntas sobre os processos eleitorais daquele ano, medida que permanece em vigor.
Grok: A Abordagem Livre de Elon Musk
Por outro lado, o Grok, chatbot desenvolvido pela equipa de Elon Musk para a plataforma X, destaca-se por sua abordagem menos restritiva. Este chatbot não censura respostas e fornece informações detalhadas mesmo em questões sensíveis.
As Empresas e o Controle da Informação
Especialistas consultados pela Maldita sugerem que estas restrições são estratégias das empresas para proteger a sua reputação e evitar possíveis complicações legais. Ao limitar as respostas a determinados tópicos, as empresas procuram minimizar riscos associados à disseminação de informações potencialmente controversas ou incorretas.
Transparência e a Evolução da IA
Esta situação levanta questões sobre a transparência e a liberdade de informação no desenvolvimento e implementação de ferramentas de IA. Enquanto algumas empresas optam por uma abordagem cautelosa, outras escolhem oferecer respostas mais abertas, refletindo diferentes filosofias e estratégias no universo da inteligência artificial.
O Impacto Para Profissionais e Empresas
Para os profissionais de tecnologia e inovação, bem como para entusiastas e parceiros do setor, é crucial compreender estas nuances. Ao integrar chatbots de IA nas suas operações ou produtos, é essencial avaliar as limitações e capacidades de cada ferramenta, garantindo que correspondem às necessidades e valores da organização.
À medida que a IA continua a evoluir, espera-se que as empresas refinem as suas políticas e abordagens, equilibrando a oferta de informações úteis com a responsabilidade ética e legal. A transparência nas operações e nas limitações destas ferramentas será fundamental para manter a confiança dos utilizadores e promover uma adoção mais ampla e consciente da tecnologia.