Ferramentas de IA
Consultor de Custo de LLM (Tokens, Cache, Batch, Modelo Ideal)
Analisa uso de LLM e recomenda otimizações de custo via tokens, prompt caching, batch e escolha de modelo
#llm#custo#otimizacao#prompt-caching+1
Metaprompting
Otimizador de Custo de Tokens
Otimização de prompt para reduzir custo de tokens preservando performance, com estratégias de compressão, caching e routing
#custo#tokens#otimizacao#caching+1
Metaprompting
Planejador de Estratégia de Prompt Caching
Desenha estratégia de prompt caching para reduzir custo e latência, separando estático de dinâmico e medindo cache hit rate
#caching#custo#latencia#anthropic+2
Metaprompting
Redutor de Tokens com Preservação de Performance
Comprime prompts reduzindo tokens sem perda de qualidade, com diff linha a linha e validação de performance
#tokens#compressao#custo#otimizacao+1