
“Um excelente modelo com uma prompt fraca, pode ser superado por um modelo mais fraco com uma prompt excelente.”
David Lamelas
🧭 Guia Ampliado de Prompt Engineering
Uma prompt é a instrução ou pergunta que se escreve para orientar um modelo de AI, para esse modelo de IA dar uma resposta, um resultado, uma imagem, um vídeo, ou seja um output; é o enunciado ou instrução que diz à AI (NLP) o que fazer.
Pense na prompt como o pedido que faz a um chef: se disser “quero comida”, recebe algo genérico; se explicar o prato, porções, restrições alimentares e se gosta do bife bem ou mal passaddo o resultado melhora muito. O mesmo acontece com AI.
Para os mais curiosos a nível técnico, tecnicamente, a prompt é convertida em tokens (fragmentos de texto) que a AI compara com padrões aprendidos (no seu treino de base) para prever a próxima sequência de palavras e construir a resposta. Lembra-se? As LLM´s (Long Language Models) ou NLP´s (Natural Language Processing), ou numa linguagem mais simples, os Chat GPT’s da vida, são apenas modelos de AI que constroem frases muito bem, tão bem que parecem super inteligentes e parecem saber muita coisa, e sabem (desta forma que acabei de explicar, construindo frases, palavra a palavra, silaba a silaba).
O curioso: pequenas mudanças na formulação da prompt, papel, objetivo, limites, etc… (veja mais dicas em baixo), podem alterar drasticamente o “raciocínio” ou o estilo da resposta. Como marcar um número de telefone, se erra um número, vai telefonar para outra pessoa, mas neste caso é ainda mais frustrante pois muitas vezes com a mesma prompt pode ter respostas ligeiramente diferentes… Como se com o mesmo número de telefone ligasse para pessoas ligeiramente diferentes. Então é mais complexo que isso lamento dizer. Por isso, é tão importante ser rigoroso na prompt engineering, no detalhe, no fine tunning e seguir as boas práticas que indico em baixo, de modo a minimizar essa aleatoriedade natural que as NLP´s (os chat GPT´s da vida) têm, de modo a que a resposta seja sempre mais ou menos idêntica, e sobretudo satisfaça o seu pedido e o resultado seja o que quer.
Portanto quem vai fazer a revolução da AI aplicada à hotelaria?
Na minha opinião serão os hoteleiros inteligentes que dominarem muito bem a prompt engineering, porque são eles que sabem qual a pergunta certa. Muitos só não sabem ainda domina-la e tirar partido disso com AI. Pois uma parte do sucesso da AI está na prompt, na pergunta que se faz. Portanto, é importante ter especialistas do sector hoteleiro a desenvolver soluções para a hotelaria, pois são também esses especialistas que sabem fazer a pergunta certa e dar as instruções certas sem deixar nenhum coelho fora da cartola.
Dica de ouro para quem se está a iniciar ou para os mais perguiçosos:
Já agora, dica de ouro: quando não souber que prompt de qualidade deve escrever, explique em palavras simples o que quer ao ChatGPT (ou outra LLM) e peça-lhe que lhe escreva a prompt ideal (diga também em que modelo vai usar essa prompt).
Depois use essa prompt e já está. Ou seja, pegue nessa prompt, copie para o modelo que quiser usar, faça uns ajustes se quiser e já está, é só esperar o resultado. Parece tolo, mas funciona muito bem para quem ainda não está muito confortável com o prompt engineering ou se está num nível mais inicial. Mas eu não aconselho muito esta prática, pois assim nunca vai aprender prompt engineering. Mas quando a pressa bate à porta, também pode ser uma boa solução, mesmo para os mais experientes.
🧭 As boas práticas e o que uma boa prompt deve ter e como se deve estruturar.
1) Dê um papel claro
- Diga quem a AI deve “ser” ou qual a especialidade que deve seguir: “Age como analista financeiro prudente“, “És um professor de 9.º ano”, “És um copywriter B2B“, “Age como um advogado” etc…
- Se fizer sentido, acrescente senioridade e sector.
- Por exemplo, se pedir para “Age como um advogado” a AI vai parecer um verdadeiro conselheiro júridico.
2) Exponha o problema
- Exponha o problema ou a situação, isso ajuda a dar contexto.
- Não precisa de ser um romance no entanto. Não conte a história da sua vida, seja conciso.
3) Objetivo claro e tarefas claras
- Explique o que quer: pergunta, tarefa, análise ou ideias.
- Declare o resultado desejado numa frase.
- Por exemplo algo muito simples: “Quero um resumo de 150 palavras para leigos”.
4) Separe contexto de instruções
Crie secções. Funciona melhor assim:
- Contexto: 2–3 linhas úteis.
- Tarefa: o que fazer.
- Restrições: limites e políticas.
- Saída: formato final.
5) Dê detalhes que façam falta
- Público-alvo, nível de conhecimento, idioma (PT-PT), ferramentas, prazos, limites de palavras.
6) Use delimitadores
- Isole conteúdos com
blocos de código, <tags> ou “Texto: …”. Evita confusões. - Ajude a AI a entender o que é uma instrução e o que um texto que você quer mudar.
- Por exemplo: Traduz o texto seguinte para inglês: “Sem prejuízo do disposto ….”.
7) Mostre o que quer (e o que não quer)
- Um bom exemplo vale ouro. Vai ajudar a AI a entender as suas expectativas quanto ao resultado esperado. Tal como nós humanos, entendemos sempre melhor quando nos dão um exemplo.
- Por exemplo escreva: Deixo aqui um exemplo do tipo de resposta que se faz a um cliente aquando uma reclamação: “Exmo. Sr. Tiago Gonçalves, Muito obrigado por nos ter chamado a atenção para esse ponto ….”.
- Traga também um anti-exemplo rápido para afastar resultados não desejados (para quem já conhece os vicios de alguns modelos de AI sabem como é importante dar anti-exemplos).
8) Restrições e limites
- É muito importante dizer o que não quer!
- Ao fim de um tempo já conhecemos as manhas de um determinado modelo, e então já sabemos que temos de dizer para não ter essas manhas.
- Por exemplo: “Nunca uses travessões —”. Já agora, outra dica, se não quer dar muito nas vistas que está a usar AI, não use os “—”, pois esse “—” denúncia que usou AI, pois esse “—” nunca era utilizado a não ser por grandes escritores da literatura, até o chat GPT aparecer. Aliás desafio-o/a a tentar encontrar no seu teclado essa tecla para escrever esse travessão “—”. Entendeu agora?
- Declare custos, tempo de leitura que tem, políticas aplicáveis e requisitos de privacidade (anonimização de dados sensíveis).
9) Formato e o tamanho
- Diga se quer um lista, tabela, gráfico de barras, passos, JSON… diga como quer.
- Indique contagens.
- Por exemplo: “Dá 10 sugestões diferentes”, “Uma lista com máx. 6 bullet points”.
10) Peça referências fiáveis
- Em temas factuais, peça fontes e ligações.
- Peça links de notícias para você poder validar factos.
11) Reduza alucinações
- Mais uma dica de ouro, para diminuir as alucinações use esta dica em baixo.
- Se a AI não tiver base para comprovar esses factos, peça para a AI dizer “não sei / baixa confiança”. Coloque em todas as prompts algo como “Se não tiveres 100% de certeza acerca de uma resposta ou facto diz que não sabes ou que o grau de confiança da resposta é baixo, não te importes em passar uma má imagem, é normal não saberes tudo, podes ficar à vontade comigo, diz-me quando há algo que não sabes. O pior que me podes fazer é inventar algo só porque não tens 100% de certeza.”. As AI funcionam através de probabilidades por isso entendem muito bem esta parte “Se não tiveres 100% de certeza acerca de uma resposta ou facto diz que não sabes ou que o grau de confiança da resposta é baixo…”.
12) Exija justificação, mas sem ensaios
- Peça critérios e factores determinantes em pontos curtos (evite raciocínios extensos quando só interessa o resultado).
- Peça critérios e factores em tópicos. Curto e direto.
13) Quanto mais completa a prompt, melhor o resultado
- Um pouco mais de precisão agora poupa muito retrabalho depois.
14) Trate as lacunas de frente
- Autorize um pedido de esclarecimento por parte da AI se faltar algo crítico.
- Se avançar com assunções, que fiquem listadas.
- Autorize um pedido de esclarecimento quando faltar dado essencial ou, em alternativa, assunções explícitas.
- Por exemplo coloque: “Caso não esteja clara a minha prompt, pede os esclarecimentos que precisares de forma a ter uma resposta 100% correcta e assertiva.”.
15) Peça variedade criativa
- Se quiser uma resposta rica e com várias perspectivas ou vários estilos, peça, seja exigente.
- Peça varias respostas e ponha-as em competição.
- 3 opções distintas (ex.: baixo/médio/alto esforço) → uma síntese ou conclusão final.
16) Dê contexto suficiente, não um romance
- Corte o que é supérfluo. Resuma anexos longos em pontos.
- Por vezes se colocar algo que não é assim tão essencial, isso pode confundir a AI, pode ser mais prejudicial que benéfico. Pois pode ter o “azar” de a AI se focar demasiado nesse ponto que colocou e não era essencial.
- Aqui como em tudo, por vezes menos é mais.
- O detalhe faz toda a diferença, mas nem 8 nem 80.
17) Para código e dados
- Especifique linguagem/versão, ambiente, I/O, casos de teste e expectativas de complexidade.
18) Preserve formato ao localizar
- Em traduções/resumos, peça para manter formatação, emojis, quebras, etiquetas.
19) Avaliação do output
- Solicite pontuação (0–10) contra critérios e sugestões de melhoria do próprio output ou prompt
- Dê sempre um espaço para a AI ser crítica de si própria ou do quer que seja.
20) Teste → meça → refine se necessário recomece do zero
- Faça A/B de prompts. Compare contra critérios de aceitação. Ajuste e repita.
- Ás vezes não acertamos na prompt à primeira. Nesse caso por vezes o melhor é entender o que falhou e recomeçar, colocando esse aprendizado sobre o que falhou na prompt seguinte e tentar novamente.
- Por vezes é de perder a cabeça, tentar corrigir um resultado através de iteração (iteração é o acto de corrigir e ajustar o resultado dado por uma AI através de conversação/prompts), pois por mais que você explique a AI não vai entender. Por exemplo muitas vezes o texto que se pede para estar numa imagem fica fora das linhas ou desenquadrado, então por vezes é mais dificil corrigir esse erro, que recomeçar do zero a conversa e colocar esse detalhe na prompt por mais óbvio que pareça (“és capaz de enquadrar o texto na imagem”, “se for necessário diminui o tamanho da fonte do texto de modo a caber na imagem”).
🧪 Template muito simples pronto para colar
Sei que nem sempre é possível seguir todas as boas práticas no dia a dia. Por isso deixo o básico dos básicos, é só adaptar.
Papel: Age como um sintetizador académico.
Explicar problema e objectivo: Expôr {problema}. Explicar {tema} para {público}.
Contexto: {2-3 frases} ou {uma tabela}
Tarefa: Produz um resumo em 5 pontos.
Restrições: Máx. 180 palavras; PT-PT; sem jargão.
Fontes: Cita 2-3 fontes fiáveis.
Saída: Markdown com título, lista e secção “Limitações”.
✔️ Checklist rápido antes de enviar a prompt
Atribuir um papel ao GPT
Tom, lingua, alinhar com o público
Definir objetivos claros (comando, pergunta, instrução)
Dividir o seu pedido (ex: separar instrução do contexto)
Incluir detalhes essenciais, seja descritivo
Implementar delimitadores (ex: “texto”)
Expectativas, mostrar exemplos ou o que não se quer
Definir o comprimento da resposta ou formato
Referenciar Textos Confiáveis
Eliminar alucinações, se não 100% provavel de estar certo diz “não sei”
Pedir ou mostrar um Raciocínio “o Passo a Passo”
Quanto mais completa for a prompt melhor o resultado
Testar, Testar, Testar (experimentar > resultados > refinar) e muitas vezes o melhor é recomeçar do zero com o aprendizado que se teve, caso o 1º resultado não tenha sido satisfatório.

Deixe um comentário