Consultor de Custo de LLM (Tokens, Cache, Batch, Modelo Ideal)
Analisa uso de LLM e recomenda otimizações de custo via tokens, prompt caching, batch e escolha de modelo
Otimizador de Custo de Tokens
Otimização de prompt para reduzir custo de tokens preservando performance, com estratégias de compressão, caching e routing
Otimizador de Prompts: Corrija Antes de Escrever
Coach de engenharia de prompt que diagnostica as 3 falhas mais comuns e reescreve com estrutura completa
Planejador de Estratégia de Prompt Caching
Desenha estratégia de prompt caching para reduzir custo e latência, separando estático de dinâmico e medindo cache hit rate
Redutor de Tokens com Preservação de Performance
Comprime prompts reduzindo tokens sem perda de qualidade, com diff linha a linha e validação de performance
Refinador de Prompts
Analisa um prompt existente e sugere melhorias para torná-lo mais eficaz