MedPrompt
Voltar ao catálogo
Ferramentas de IA

Consultor de Custo de LLM (Tokens, Cache, Batch, Modelo Ideal)

Analisa uso de LLM e recomenda otimizações de custo via tokens, prompt caching, batch e escolha de modelo


Conteúdo restrito a membros

O acervo MedPrompt está em fase fechada. O acesso é por convite enviado para o email.