Ir para o conteúdo

Lab 2.3: Manipulando dados sensíveis e boas-práticas no desenvolvimento

Com o poder e benefícios que as automações inteligentes entregam, é essencial seguir boas práticas de desenvolvimento e garantir segurança e governabildiade, para extrair o melhor do seu Agente de IA. A seguir, vamos discutir um pouco mais sobre as principais práticas recomendadas e também, como lidar com dados sensíveis como senhas, informações confidenciais e afins.

Boas-práticas para desenvolver AI Agents:

  • Defina Claramente os Limites e Ferramentas (Scoping):

Restrinja as capacidades do agente apenas ao necessário para cumprir sua função. Se um agente precisa apenas ler dados, não lhe dê a ferramenta para escrever ou apagar. Isso minimiza o "raio de explosão" caso ele cometa um erro ou seja mal utilizado.

  • Exija Confirmação Humana para Ações Críticas (Human-in-the-Loop):

Para ações irreversíveis ou de alto impacto (como enviar e-mails para clientes, fazer uma compra, ou apagar arquivos), implemente um passo obrigatório onde um humano deve aprovar a ação antes que o agente a execute. Isso combina a velocidade do agente com o julgamento humano.

  • Implemente Logging e Rastreabilidade Detalhados:

Registre cada passo do "raciocínio" e das "ações" do agente. Mantenha um log claro de qual decisão ele tomou, qual ferramenta usou, e qual foi o resultado. Isso é crucial para depurar falhas, otimizar o desempenho e realizar auditorias de segurança.

  • Use Agentes Simples e Focados em Vez de um "Super Agente":

Em vez de construir um único agente para fazer tudo, crie múltiplos agentes menores, cada um especialista em uma tarefa (arquitetura hierárquica). Agentes menores são mais fáceis de controlar, testar e proteger. Isso também torna o sistema mais modular e escalável.

As principais práticas para Proteger Dados Sensíveis com AI Agents

A seguir, veja os 4 princípios essenciais pra garantiur mais segurança e confiabilidade em seu AI Agent quando manipular dados sensíveis:

  • Nunca Passe Dados Sensíveis Diretamente nos Prompts:

Não inclua informações como senhas, chaves de API, números de CPF ou dados de cartão de crédito no prompt inicial do agente. Em vez disso, o agente deve usar uma ferramenta segura (como um "cofre de segredos" ou um gerenciador de credenciais) para obter essas informações apenas quando for estritamente necessário para uma ação.

Guarde credenciais,API Keys e afins na BotCity:

Um dos recursos que nossa plataforma oferece é o cofre de Credenciais, onde você consegue utilizar os recursos da BotCity para manejar credenciais em suas automações inteligentes. Visite a documentação para saber mais sobre a utilização das credenciais na BotCity.

  • Utilize Técnicas de Anonimização e Pseudonimização: Antes de enviar dados para um LLM, use um passo intermediário para remover ou substituir informações de identificação pessoal (tabém conhecidos como PII). Por exemplo, substitua "João Silva" por "CLIENTE_001" e "CPF 123.456.789-00" por um token aleatório. O agente trabalha com os dados mascarados e, caso precisar, consegue reverter os dados para o formato original no final do processo, dentro do seu ambiente controlado e seguro.

  • Controle o Acesso a Ferramentas e Fontes de Dados (Least Privilege): Aplique o "princípio do menor privilégio" rigorosamente. O agente só deve ter permissão para acessar os bancos de dados, APIs e arquivos que são absolutamente essenciais para sua tarefa. Utilize credenciais de serviço com permissões restritas, e não contas de administrador.

  • Prefira LLMs Locais (On-Premise) ou com Acordos de Privacidade (VPC): Para operações que manipulam dados extremamente sensíveis, a melhor prática é usar um LLM que rode em sua própria infraestrutura (on-premise) ou em uma nuvem privada virtual (VPC). Isso garante que os dados nunca saiam do seu perímetro de segurança, eliminando o risco de exposição a terceiros ou de que sejam usados para treinar modelos públicos.