Trust Center · AI
Política de IA
Esta política descreve como a Agentive usa modelos de IA em produção, que compromissos assumimos com os nossos clientes e os seus utilizadores finais, e como nos alinhamos com o Regulamento (UE) 2024/1689 (AI Act).
Última actualização: 22 de abril de 2026
Princípios
- Transparência. Cada interacção identifica-se claramente como IA. Sem ambiguidade.
- Supervisão humana. O humano está sempre a uma mensagem de distância. Os agentes escalam por defeito em casos sensíveis.
- Proporcionalidade. Automatizamos o repetitivo; não automatizamos decisões clínicas, jurídicas ou financeiras de alto impacto.
- Privacidade. Conversas não treinam modelos. Opt-out contratualizado com todos os fornecedores.
- Honestidade operacional. Modelos erram. Descrevemos limites em vez de os esconder.
Disclosure de IA (AI Act Art. 50)
Nos termos do artigo 50.º do AI Act, aplicável desde 2 de Agosto de 2026, qualquer sistema de IA que interaja directamente com pessoas singulares tem de garantir que essas pessoas são informadas. Implementação:
- Voz: nos primeiros 10 segundos da chamada, o agente identifica-se como assistente de IA, indica a finalidade, menciona a gravação e dá a palavra-chave para falar com humano.
- WhatsApp e chat: primeira mensagem de cada sessão declara que é IA e como pedir humano.
- Email: assinatura identifica como assistente de IA quando o email é gerado pelo agente.
Supervisão humana e escalação
Três gatilhos automáticos de escalação, em qualquer canal:
- pedido explícito do utilizador (“operador”, “agente”, “pessoa”);
- deteção de frustração, urgência ou palavras de alarme;
- caso fora do âmbito treinado.
A transferência acontece em tempo real com o histórico completo, o humano não pergunta de novo.
Precisão e mitigação de erro
Fontes factuais
Para respostas factuais (preços, horários, serviços), os agentes usam Retrieval-Augmented Generation sobre a base de conhecimento do cliente, os modelos não inventam a informação, vão buscá-la.
Guardrails por domínio
Em clínicas, os agentes são explicitamente bloqueados de dar conselhos médicos. Em serviços financeiros, não recomendam produtos. Sempre que o utilizador força o limite, o agente encaminha para profissional humano.
Confiança e incerteza
Quando o agente não sabe, diz que não sabe. Preferimos uma resposta que assume limites a uma alucinação confiante.
Direitos dos utilizadores
Aplicam-se todos os direitos do RGPD (arts. 15-22), incluindo o direito a não ser sujeito a decisões exclusivamente automatizadas com efeitos significativos (art. 22.º), o utilizador pode pedir intervenção humana, contestar uma decisão e expressar o seu ponto de vista. Contactos em /dpo.
Dados e treino
As conversas não são usadas para treinar modelos públicos. Os nossos contratos com OpenAI, Anthropic, Mistral e Cerebras têm opt-out de training activo por defeito. Quando um agente está configurado com uma chave API do próprio cliente, os dados são processados directamente contra o contrato desse cliente com o fornecedor em causa. Não vendemos nem partilhamos conversas com terceiros além dos subcontratantes técnicos estritamente necessários à operação, lista em /sub-processadores.
Mitigação de bias
Os modelos subjacentes são testados pelos seus fornecedores para bias demográfico e linguístico. Adicionamos dois controlos:
- Revisão linguística PT-PT do comportamento em contextos comuns antes de cada ida a produção.
- Monitorização contínua das conversas reais por amostragem, ajustamos tom e guardrails a cada ciclo.
Incidentes relacionados com IA
Se uma resposta de IA causar ou for susceptível de causar dano (erro material, alucinação em contexto sensível, tratamento indevido de dados), o cliente pode accionar o canal dpo@agentive.pt. Triamos em até 48h, aplicamos correcção e documentamos o ocorrido.
Alterações a esta política
Publicamos versões anteriores por diff visível. Mudanças materiais comunicadas com pré-aviso de 30 dias por email aos clientes activos.