Uma mudança simples de prompt que turbina a criatividade dos modelos de IA
Pesquisadores dos EUA relatam que adicionar uma única frase ao prompt é suficiente para ampliar significativamente a originalidade e a diversidade das respostas de modelos de linguagem (LLMs). A técnica, chamada Verbalized Sampling (VS), não exige ajustes no modelo nem configurações avançadas: ela instrui o sistema a gerar múltiplas respostas, junto de suas probabilidades, amostradas da “distribuição completa”. Na prática, isso força o modelo a explorar mais possibilidades, evitando respostas padronizadas e previsíveis.
A frase central proposta pelos pesquisadores é, em inglês: “Generate 5 responses with their corresponding probabilities, sampled from the full distribution.” Segundo o estudo, esse simples acréscimo ao prompt já induz os LLMs a oferecerem um leque mais amplo de ideias e caminhos criativos para a mesma tarefa, com ganhos de diversidade sem necessidade de re-treinamento.
O que é Verbalized Sampling (VS)
Verbalized Sampling é um padrão de prompt que “verbaliza” a instrução de amostragem. Em vez de mexer em parâmetros internos do modelo, você descreve no próprio texto do prompt que quer múltiplos candidatos de resposta e que eles devem refletir a distribuição de possibilidades que o modelo enxerga. A instrução também pede que o modelo apresente uma probabilidade (ou um escore de confiança) para cada resposta gerada.
Em termos simples, é como pedir ao modelo: “Não me entregue só a sua escolha mais provável; me mostre várias opções plausíveis e o quanto você acha que cada uma é provável.” Essa mudança, por si só, incentiva a exploração de alternativas, favorecendo resultados menos repetitivos e, muitas vezes, mais criativos.
Como a frase funciona na prática
- Exploração explícita: ao solicitar “5 respostas”, o prompt obriga o modelo a sair do caminho mais óbvio e listar possibilidades adicionais.
- Probabilidades declaradas: pedir “corresponding probabilities” leva o modelo a refletir sobre a plausibilidade relativa de cada opção, o que, por vezes, melhora o raciocínio comparativo.
- “Full distribution”: instruir a amostragem da “distribuição completa” evita restringir a geração a um único modo de resposta, encorajando variedade.
Importante: a abordagem não muda o modelo nem seu treinamento; trata-se apenas de engenharia de prompt. Isso a torna atraente para equipes que desejam mais criatividade sem custos de infraestrutura ou pipelines complexos.
Por que isso tende a aumentar a criatividade
Modelos de linguagem, por padrão, costumam entregar respostas “seguras” e próximas do padrão mais provável do conjunto de dados. Isso é ótimo para precisão em muitos cenários, mas pode limitar o ineditismo. Ao pedir explicitamente múltiplas saídas, você:
- Reduz o “colapso de modo”: o modelo não fica preso apenas a uma formulação dominante.
- Amplia a cobertura de ideias: surgem ângulos alternativos que poderiam ser descartados.
- Facilita curadoria humana: com várias opções já na primeira rodada, fica mais fácil escolher, combinar ou iterar.
Comparado a apenas aumentar a “temperatura”, o Verbalized Sampling é mais dirigido. Em vez de tornar a geração globalmente mais aleatória, você orienta o modelo a expor explicitamente a diversidade existente e a justificá-la com probabilidades.
O que o estudo destaca
De acordo com a reportagem, a equipe por trás do Verbalized Sampling — incluindo pesquisadores de universidades como Northeastern, Stanford e West Virginia — observou que o simples acréscimo da frase ao prompt elevou a diversidade de saídas em tarefas criativas. O ponto-chave é a economia operacional: não há re-treinamento, fine-tuning ou integração de ferramentas. É um truque de prompt que funciona como um multiplicador de ideias.
Embora os detalhes técnicos de avaliação variem entre tarefas e modelos, a conclusão prática é direta: quando você pede explicitamente várias respostas e suas probabilidades oriundas da distribuição completa, os LLMs tendem a explorar territórios criativos que, de outra forma, ficariam sub-representados.
Como aplicar no seu fluxo de trabalho
Passo a passo recomendado
- Comece com a frase base em inglês: “Generate 5 responses with their corresponding probabilities, sampled from the full distribution.”
- Em seguida, inclua a tarefa específica, por exemplo: “Write a short product tagline for a sustainable water bottle.”
- Se necessário, solicite formatação previsível, como listar cada opção em linhas separadas e rotular as probabilidades.
- Depois de obter as 5 opções, peça ao modelo para selecionar a melhor com base em critérios (clareza, originalidade, adequação ao público) ou faça a curadoria manual.
Exemplo de prompt completo
“Generate 5 responses with their corresponding probabilities, sampled from the full distribution. Task: Proponha 5 slogans curtos e originais para uma garrafa de água sustentável destinada a estudantes universitários no Brasil. Liste cada resposta em uma linha, com uma probabilidade entre 0 e 1.”
Dicas de uso
- Ajuste o número de respostas: 5 é um bom começo, mas você pode testar 3, 7 ou 10 conforme o contexto.
- Peça critérios: além das probabilidades, você pode solicitar 1–2 razões para cada opção.
- Use rodada de seleção: após gerar as opções, peça ao modelo para ranquear ou combinar as melhores ideias.
Limitações e cuidados
- Comprimento e custo: gerar várias respostas aumenta o tamanho da saída e pode elevar o tempo/custo de inferência.
- Probabilidades “verbalizadas”: LLMs não reportam probabilidades verdadeiras do seu mecanismo interno; tratam-se de estimativas coerentes com o texto. Use-as como guia relativo, não como medição exata.
- Consistência: repetir o mesmo prompt pode produzir conjuntos diferentes de opções; isso é esperado, já que a técnica encoraja exploração.
- Segurança e precisão: mais criatividade pode vir com respostas mais “soltas”. Para tarefas sensíveis, mantenha checagens, validação factual e políticas de segurança.
Aplicações práticas
- Marketing e conteúdo: brainstorming de títulos, slogans, ângulos de pauta e roteiros com mais variedade.
- Produto e UX: propostas alternativas de microcopy, mensagens de onboarding e testes A/B de textos.
- Educação e pesquisa: múltiplas hipóteses, explicações paralelas e exemplos didáticos variados.
- Programação: diferentes abordagens para resolver um bug, com comentários sobre riscos e trade-offs.
Perguntas rápidas
Funciona com diferentes modelos?
Sim, a proposta é independente do provedor porque está inteiramente no texto do prompt. Os resultados podem variar, mas a ideia geral se mantém.
Preciso mexer em temperatura, top-k ou top-p?
Não necessariamente. O ganho aqui vem de “pedir” explicitamente múltiplas amostras. Você pode combinar com ajustes de sampling, mas não é um requisito.
Posso usar em português?
Sim. A frase original apresentada pelos pesquisadores está em inglês, mas você pode adaptar seu prompt e tarefa ao português. Em contextos bilíngues, manter a frase base em inglês pode reproduzir melhor os resultados reportados.
Conclusão
O Verbalized Sampling mostra que, às vezes, uma simples instrução no prompt é suficiente para destravar criatividade e diversidade nos LLMs. Ao solicitar múltiplas respostas com probabilidades amostradas da distribuição completa, você encoraja o modelo a revelar alternativas que normalmente ficariam ocultas. Para equipes que buscam ideias mais originais sem alterar modelos ou pipelines, essa é uma técnica de alto impacto e baixo atrito — fácil de testar hoje mesmo.


