Boas práticas de consumo de dados

Essa seção orienta como utilizar dados e integrações de forma eficiente, segura e escalável dentro dos workflows.

📘 Principais boas práticas

🔹 Utilizar apenas os dados necessários

Evite consumir ou trafegar dados que não serão utilizados no workflow.

👉 Benefícios:

  • Reduz tempo de execução
  • Diminui custo de integração
  • Simplifica o fluxo

🔹 Padronizar dados no início do fluxo

Utilize o nó de Valor para tratar e padronizar dados logo após o input ou integração.

👉 Exemplos:

  • Remover caracteres especiais
  • Padronizar formatos
  • Tratar campos nulos

🔹 Tratar valores nulos e inconsistentes

Sempre considere cenários onde dados podem não existir ou estar incompletos.

👉 Evita:

  • Quebras de fluxo
  • Decisões incorretas
  • Erros em cálculos

🔹 Evitar chamadas repetidas de integração

Não execute a mesma integração múltiplas vezes sem necessidade.

👉 Sempre que possível:

  • Reutilize dados já consultados
  • Armazene resultados em variáveis (nó de Valor)

🔹 Utilizar cache de dados

Sempre que aplicável, utilize mecanismos de **cache **para evitar reprocessamento e consumo desnecessário de integrações externas.

O cache permite reutilizar respostas de integrações já realizadas por um período determinado, evitando novas chamadas para o mesmo dado.

👉 Exemplos de uso:

  • Consultas a bureaus (Serasa, SCR, etc)
  • Dados cadastrais que não mudam com frequência
  • Informações já utilizadas em execuções recentes

👉 Benefícios:

  • Redução de custo com provedores
  • Melhoria de performance
  • Menor dependência de tempo de resposta externo
  • Maior estabilidade do fluxo

👉 Boas práticas de cache:

  • Definir tempo de expiração adequado
  • Evitar cache para dados altamente dinâmicos
  • Garantir que dados críticos estejam atualizados quando necessário

🔹 Monitorar tempo de resposta das integrações

Acompanhe a performance das APIs utilizadas no workflow.

👉 Importante para:

  • Identificar gargalos
  • Melhorar tempo de resposta
  • Priorizar otimizações

🔹 Garantir consistência entre input e output

Certifique-se de que os dados recebidos e retornados estejam estruturados e padronizados.

👉 Evita:

  • Problemas de integração com o cliente
  • Falhas de interpretação dos dados