Audiência | Disponibilidade |
Administradores de Organização e Pipe | Todos os Planos (Requer funcionalidade de Automações/AI) |
O que este artigo aborda
Definição e implementação do princípio Human In The Loop (HITL).
Checklist de segurança obrigatória para cenários de alto risco (saúde, segurança e dados sensíveis).
Melhores práticas para Histórico de Atividades de decisão e notificação de usuários afetados por automações de IA.
Antes de você começar
Você precisa ter permissão de Administrador no Pipe ou na Organização para criar ou editar Automações e Agentes de IA.
Conhecimento básico sobre a criação de Agentes de IA e Automações.
1. Princípio Fundamental: "Human In The Loop" (HITL)
O princípio Human In The Loop (HITL) — literalmente, "humano no laço" ou "humano envolvido" — estabelece que sistemas automatizados ou de Inteligência Artificial (IA) não devem operar sem um ponto de revisão humana para decisões que possam ter consequências significativas.
⚠️ Atenção Crítica de Segurança
Este sistema não deve ser o único ponto de decisão em cenários que possam resultar em dano físico ou psicológico. Sempre deve existir um loop de revisão humana para decisões críticas.
📝 Checklist Obrigatório para Cenários de Alto Risco
Antes de ativar qualquer componente de IA ou Automação em cenários que envolvam:
Saúde e Bem-Estar (ex.: triagem de sintomas, sugestão de tratamento).
Segurança Física (ex.: controle de acesso, alarmes).
Localização e Dados Geográficos Sensíveis.
Finanças e Pagamentos (ex.: aprovação de empréstimos, transferências).
...você DEVE garantir os seguintes pontos no seu processo:
Verificação | Ação de Segurança |
1. Validação Humana | Uma fase ou tarefa é adicionada ao Pipe para exigir que um humano revise e confirme a saída da IA (ex.: um Gerente deve aprovar a sugestão). |
2. Rastreabilidade | O Pipe registra o que foi automatizado, quem foi notificado e quando a ação ocorreu, confirme essas informações no Histórico de Atividades do Card. |
3. Consistência Lógica | Validadores de Consistência são configurados para cruzar a saída da IA com dados de outras fontes fora do Pipefy (ex.: checar o saldo bancário em um sistema financeiro externo antes de processar um pagamento). |
4. Reversibilidade (Rollback) | Deve haver um caminho claro e fácil para desfazer a decisão automatizada ou corrigir o dado. |
2. Configurando Validação Humana para Ações Críticas
Para mitigar o risco de erros (ou "alucinações") em sistemas automatizados, use as Ações de Automação para criar um ponto de parada obrigatório.
Ação: Aprovação Humana em Pagamentos e Instruções Financeiras
Protegendo-se contra Engenharia Social e Alucinações em Chatbots Financeiros:
Nossos sistemas de IA não criam ou alteram métodos de pagamento. No entanto, a IA pode gerar instruções para um pagamento. Para proteger sua organização, um humano deve sempre aprovar essas instruções.
Crie um Campo de Status: Crie um campo Select ou Radio no Card, chamado Status da Aprovação, com as opções: Aguardando Revisão Humana, Aprovado, Rejeitado.
Crie a Automação:
QUANDO: Um campo de entrada relevante for preenchido pelo Agente de IA.
ENTÃO:
Ação 1: Atribua responsáveis (o time de Finanças) para o Card.
Ação 2: Envie uma tarefa (Título: "Revisar e Aprovar Instrução de Pagamento Gerada por IA") para os responsáveis.
Ação 3: Defina o campo Status da Aprovação como Aguardando Revisão Humana.
Aprovação Final: Configure uma segunda Automação que só irá prosseguir com a Ação (ex.: mover o Card para a fase de Pagamento Efetivo) SE o campo Status da Aprovação for Aprovado.
[Print da configuração aqui]
Caption: Use automações para criar um passo de aprovação humana com a ação Envie uma tarefa.
✅ Validação de Consistência Lógica (Fact-Checking)
Sempre que a IA gerar dados baseados em inputs abertos (texto livre), configure uma etapa de Fact-Checking Adicional usando outros campos do Card ou integrações externas.
Exemplo: Se um Agente de IA sumarizar um contrato, a Automação deve mover o Card para uma fase de revisão onde um humano compara a sumarização da IA com a data de validade e o valor financeiro extraídos diretamente de campos estruturados do Card ou de fontes externas confiáveis.
3. Histórico de Atividades e Notificações ao Usuário
A transparência é crucial. Os usuários afetados por decisões automatizadas devem ser informados de forma clara e imediata sobre as ações da IA.
1. Configurando Logs de Decisão e Rastreabilidade
Você deve garantir que as decisões automatizadas sejam registradas de forma permanente.
Rastreabilidade no Card: O Pipefy registra automaticamente as modificações no Histórico de Atividades do Card, incluindo quando um campo é preenchido por uma Automação ou Agente de IA.
Ações: Para decisões críticas, reforce para os usuários do Pipefy na sua empresa como checar se um campo crítico foi preenchido por IA.
Caption: Revise a área de Atividades do Card para verificar exatamente quais campos foram alterados pela Automação ou Agente de IA.
Caption: Atente-se às Estrelinhas de um campo para saber quais campos foram gerados pela Automação ou Agente de IA.
2. Notificando Usuários sobre Conteúdo Gerado por IA
Use as ações de notificação como mecanismos para informar o usuário quando uma decisão ou conteúdo for resultado de uma automação de IA.
Ação de Notificação | Onde usar |
Envie uma tarefa | Garante que o usuário afetado precisa interagir e revisar a decisão da IA (ex.: "Confirme a sugestão do contrato"). |
Envie um template de e-mail | Útil para comunicar que a IA processou uma solicitação (ex.: "Seu formulário foi pré-analisado pela IA. Em breve, um agente humano entrará em contato"). |
Atribua responsáveis | Garante que um humano, responsável por aquela decisão, seja notificado e possa agir, servindo como check primário. |
4. Troubleshooting (Solução de Problemas)
Sintoma | Causa Comum | Correção/Rollback Recomendado |
A IA tomou uma decisão crítica (ex.: alterou status de aprovação) sem revisão humana. | O Human In The Loop não foi configurado corretamente, ou a condição da Automação era muito ampla. | Rollback: Mova o Card manualmente para a fase de Revisão Humana e edite a Automação para incluir a ação Envie uma Tarefa. |
A sugestão da IA está logicamente inconsistente com outros dados do Card. | O Agente de IA está "alucinando" (inventando dados) ou a Instrução de AI não é específica o suficiente. | Refine a Instrução de AI (Prompt) para ser mais restritiva. Adicione um Validador (ex.: "A sugestão deve estar entre X e Y valores"). |
Usuário não sabe que a decisão foi feita pela IA. | O mecanismo de notificação é passivo (apenas log no Histórico de Atividades) e não ativo (e-mail/tarefa). | Substitua a ação passiva do Agente por uma ação ativa como Envie uma tarefa ou Envie um template de e-mail com a tag [Gerado por IA] no título. |
