Uma frase no prompt pode deixar LLMs muito mais criativos, dizem pesquisadores: conheça o Verbalized Sampling

Uma mudança simples de prompt que turbina a criatividade dos modelos de IA

Pesquisadores dos EUA relatam que adicionar uma única frase ao prompt é suficiente para ampliar significativamente a originalidade e a diversidade das respostas de modelos de linguagem (LLMs). A técnica, chamada Verbalized Sampling (VS), não exige ajustes no modelo nem configurações avançadas: ela instrui o sistema a gerar múltiplas respostas, junto de suas probabilidades, amostradas da “distribuição completa”. Na prática, isso força o modelo a explorar mais possibilidades, evitando respostas padronizadas e previsíveis.

A frase central proposta pelos pesquisadores é, em inglês: “Generate 5 responses with their corresponding probabilities, sampled from the full distribution.” Segundo o estudo, esse simples acréscimo ao prompt já induz os LLMs a oferecerem um leque mais amplo de ideias e caminhos criativos para a mesma tarefa, com ganhos de diversidade sem necessidade de re-treinamento.

O que é Verbalized Sampling (VS)

Verbalized Sampling é um padrão de prompt que “verbaliza” a instrução de amostragem. Em vez de mexer em parâmetros internos do modelo, você descreve no próprio texto do prompt que quer múltiplos candidatos de resposta e que eles devem refletir a distribuição de possibilidades que o modelo enxerga. A instrução também pede que o modelo apresente uma probabilidade (ou um escore de confiança) para cada resposta gerada.

Em termos simples, é como pedir ao modelo: “Não me entregue só a sua escolha mais provável; me mostre várias opções plausíveis e o quanto você acha que cada uma é provável.” Essa mudança, por si só, incentiva a exploração de alternativas, favorecendo resultados menos repetitivos e, muitas vezes, mais criativos.

Como a frase funciona na prática

  • Exploração explícita: ao solicitar “5 respostas”, o prompt obriga o modelo a sair do caminho mais óbvio e listar possibilidades adicionais.
  • Probabilidades declaradas: pedir “corresponding probabilities” leva o modelo a refletir sobre a plausibilidade relativa de cada opção, o que, por vezes, melhora o raciocínio comparativo.
  • “Full distribution”: instruir a amostragem da “distribuição completa” evita restringir a geração a um único modo de resposta, encorajando variedade.

Importante: a abordagem não muda o modelo nem seu treinamento; trata-se apenas de engenharia de prompt. Isso a torna atraente para equipes que desejam mais criatividade sem custos de infraestrutura ou pipelines complexos.

Por que isso tende a aumentar a criatividade

Modelos de linguagem, por padrão, costumam entregar respostas “seguras” e próximas do padrão mais provável do conjunto de dados. Isso é ótimo para precisão em muitos cenários, mas pode limitar o ineditismo. Ao pedir explicitamente múltiplas saídas, você:

  • Reduz o “colapso de modo”: o modelo não fica preso apenas a uma formulação dominante.
  • Amplia a cobertura de ideias: surgem ângulos alternativos que poderiam ser descartados.
  • Facilita curadoria humana: com várias opções já na primeira rodada, fica mais fácil escolher, combinar ou iterar.

Comparado a apenas aumentar a “temperatura”, o Verbalized Sampling é mais dirigido. Em vez de tornar a geração globalmente mais aleatória, você orienta o modelo a expor explicitamente a diversidade existente e a justificá-la com probabilidades.

O que o estudo destaca

De acordo com a reportagem, a equipe por trás do Verbalized Sampling — incluindo pesquisadores de universidades como Northeastern, Stanford e West Virginia — observou que o simples acréscimo da frase ao prompt elevou a diversidade de saídas em tarefas criativas. O ponto-chave é a economia operacional: não há re-treinamento, fine-tuning ou integração de ferramentas. É um truque de prompt que funciona como um multiplicador de ideias.

Embora os detalhes técnicos de avaliação variem entre tarefas e modelos, a conclusão prática é direta: quando você pede explicitamente várias respostas e suas probabilidades oriundas da distribuição completa, os LLMs tendem a explorar territórios criativos que, de outra forma, ficariam sub-representados.

Como aplicar no seu fluxo de trabalho

Passo a passo recomendado

  • Comece com a frase base em inglês: “Generate 5 responses with their corresponding probabilities, sampled from the full distribution.”
  • Em seguida, inclua a tarefa específica, por exemplo: “Write a short product tagline for a sustainable water bottle.”
  • Se necessário, solicite formatação previsível, como listar cada opção em linhas separadas e rotular as probabilidades.
  • Depois de obter as 5 opções, peça ao modelo para selecionar a melhor com base em critérios (clareza, originalidade, adequação ao público) ou faça a curadoria manual.

Exemplo de prompt completo

“Generate 5 responses with their corresponding probabilities, sampled from the full distribution. Task: Proponha 5 slogans curtos e originais para uma garrafa de água sustentável destinada a estudantes universitários no Brasil. Liste cada resposta em uma linha, com uma probabilidade entre 0 e 1.”

Dicas de uso

  • Ajuste o número de respostas: 5 é um bom começo, mas você pode testar 3, 7 ou 10 conforme o contexto.
  • Peça critérios: além das probabilidades, você pode solicitar 1–2 razões para cada opção.
  • Use rodada de seleção: após gerar as opções, peça ao modelo para ranquear ou combinar as melhores ideias.

Limitações e cuidados

  • Comprimento e custo: gerar várias respostas aumenta o tamanho da saída e pode elevar o tempo/custo de inferência.
  • Probabilidades “verbalizadas”: LLMs não reportam probabilidades verdadeiras do seu mecanismo interno; tratam-se de estimativas coerentes com o texto. Use-as como guia relativo, não como medição exata.
  • Consistência: repetir o mesmo prompt pode produzir conjuntos diferentes de opções; isso é esperado, já que a técnica encoraja exploração.
  • Segurança e precisão: mais criatividade pode vir com respostas mais “soltas”. Para tarefas sensíveis, mantenha checagens, validação factual e políticas de segurança.

Aplicações práticas

  • Marketing e conteúdo: brainstorming de títulos, slogans, ângulos de pauta e roteiros com mais variedade.
  • Produto e UX: propostas alternativas de microcopy, mensagens de onboarding e testes A/B de textos.
  • Educação e pesquisa: múltiplas hipóteses, explicações paralelas e exemplos didáticos variados.
  • Programação: diferentes abordagens para resolver um bug, com comentários sobre riscos e trade-offs.

Perguntas rápidas

Funciona com diferentes modelos?

Sim, a proposta é independente do provedor porque está inteiramente no texto do prompt. Os resultados podem variar, mas a ideia geral se mantém.

Preciso mexer em temperatura, top-k ou top-p?

Não necessariamente. O ganho aqui vem de “pedir” explicitamente múltiplas amostras. Você pode combinar com ajustes de sampling, mas não é um requisito.

Posso usar em português?

Sim. A frase original apresentada pelos pesquisadores está em inglês, mas você pode adaptar seu prompt e tarefa ao português. Em contextos bilíngues, manter a frase base em inglês pode reproduzir melhor os resultados reportados.

Conclusão

O Verbalized Sampling mostra que, às vezes, uma simples instrução no prompt é suficiente para destravar criatividade e diversidade nos LLMs. Ao solicitar múltiplas respostas com probabilidades amostradas da distribuição completa, você encoraja o modelo a revelar alternativas que normalmente ficariam ocultas. Para equipes que buscam ideias mais originais sem alterar modelos ou pipelines, essa é uma técnica de alto impacto e baixo atrito — fácil de testar hoje mesmo.

Fonte: https://venturebeat.com/ai/researchers-find-adding-this-one-simple-sentence-to-prompts-makes-ai-models

Fale com a Lia

Olá 👋, para iniciarmos o atendimento nos informe seu nome e telefone

Ao clicar no botão iniciar conversa, você será direcionado para o nosso Whatsapp e um de nossos atendentes lhe atenderá  em seguida.