Prompts LLM são ins­tru­ções que orientam grandes modelos de linguagem a fornecer respostas precisas. Prompts bem ela­bo­ra­dos melhoram a qualidade dos re­sul­ta­dos e promovem o uso eficiente da in­te­li­gên­cia ar­ti­fi­cial ge­ne­ra­tiva. Com abor­da­gens como o princípio ROMANE, é possível es­tru­tu­rar prompts LLM de forma objetiva e di­re­ci­o­nada.

O que são prompts LLM?

Prompts LLM são entradas ou ins­tru­ções enviadas a um modelo de linguagem de grande escala (Large Language Model: LLM) para gerar respostas ou ações desejadas. Eles podem ser perguntas, tarefas ou in­for­ma­ções de contexto em forma falada ou escrita, bem como imagens e outros tipos de dados. Tanto a qualidade quanto a estrutura do prompt in­flu­en­ciam sig­ni­fi­ca­ti­va­mente na precisão e utilidade da resposta gerada pelo modelo de IA. A ela­bo­ra­ção de prompts LLM precisos é chamada de en­ge­nha­ria de prompt (prompt en­gi­ne­e­ring) e visa apro­vei­tar ao máximo as ca­pa­ci­da­des da in­te­li­gên­cia ar­ti­fi­cial ge­ne­ra­tiva.

Soluções de IA
Mais poder digital com In­te­li­gên­cia Ar­ti­fi­cial
  • Online em segundos
  • Aumente seu cres­ci­mento com marketing de IA
  • Economize tempo e recursos

Melhores práticas de prompts LLM em IA

A uti­li­za­ção de prompts LLM é essencial para in­te­ra­ções efi­ci­en­tes com a in­te­li­gên­cia ar­ti­fi­cial, pois ins­tru­ções mal for­mu­la­das podem não gerar respostas ideais. A seguir, apre­sen­ta­re­mos o que usuários devem con­si­de­rar ao criarem prompts LLM em IA:

  • Com­pre­en­der a ca­pa­ci­dade do modelo de IA utilizado: Conhecer os pontos fortes e fracos, bem como os dados de trei­na­mento, do LLM utilizado ajuda a ajustar prompts à ca­pa­ci­dade de cada IA.
  • Formular prompts LLM de forma precisa: Prompts vagos ge­ral­mente resultam em respostas im­pre­ci­sas ou ambíguas. For­mu­la­ções claras e objetivas ga­ran­ti­rão que o modelo de IA in­ter­prete a tarefa cor­re­ta­mente, for­ne­cendo re­sul­ta­dos di­re­ci­o­na­dos. Além disso, re­co­men­da­mos que você mantenha seus prompts LLM sempre concisos e use o mesmo tom desejado nos re­sul­ta­dos.
  • Fornecer contexto: In­for­ma­ções con­tex­tu­ais ajudam a in­te­li­gên­cia ar­ti­fi­cial a entender o prompt. Ex­pli­ca­ções adi­ci­o­nais aumentam sig­ni­fi­ca­ti­va­mente a re­le­vân­cia e a precisão dos re­sul­ta­dos emitidos. Ao apre­sen­tar fontes a um modelo de IA, pode ser útil es­pe­ci­fi­car quais in­for­ma­ções devem ser con­si­de­ra­das.
  • Otimizar prompts gra­du­al­mente: Prompts LLM exigem ajustes fre­quen­tes. Se o prompt inicial não levar ao resultado desejado, é acon­se­lhá­vel que você o refine com base na resposta do modelo de IA ou ex­pe­ri­mente ins­tru­ções di­fe­ren­tes.
  • Usar for­mu­la­ções neutras: Perguntas ten­den­ci­o­sas podem in­flu­en­ciar as respostas do modelo de IA. Cer­ti­fi­que-se de formular prompts LLM de maneira neutra para obter re­sul­ta­dos objetivos.
  • Definir cla­ra­mente o papel do modelo de IA: A atri­bui­ção de papéis ajuda a obter re­sul­ta­dos mais re­le­van­tes. Atribuir um papel es­pe­cí­fico à IA facilita o for­ne­ci­mento do contexto e o di­re­ci­o­na­mento das respostas de forma precisa.
  • Utilizar modelos de prompt LLM: Use modelos (templates) de prompt testados e com­pro­va­dos, e adapte-os às suas ne­ces­si­da­des in­di­vi­du­ais para obter re­sul­ta­dos ideais. Na internet, é possível encontrar diversos exemplos de prompts LLM para di­fe­ren­tes apli­ca­ções.
IONOS AI Model Hub
Sua porta de entrada para uma pla­ta­forma de IA mul­ti­mo­dal segura
  • Uma pla­ta­forma para os modelos de IA mais avançados
  • Preços justos e trans­pa­ren­tes baseados em tokens
  • Sem de­pen­dên­cia de for­ne­ce­dor com código aberto

Otimizar prompts LLM em IA com a fórmula ROMANE

Para que você possa utilizar grandes modelos de linguagem de forma ideal, deve conhecer di­fe­ren­tes conceitos, como, por exemplo, a fórmula ROMANE: um sistema simples para criar prompts LLM eficazes. O termo “ROMANE” é, na verdade, uma sigla; Este é o seu sig­ni­fi­cado:

  • Role (papel)
  • Objective (objetivo)
  • Meta-Ins­truc­ti­ons (me­tains­tru­ções)
  • Appli­ca­tion Examples (exemplos de aplicação)
  • Not too long (não muito longo)
  • Experiment (ex­pe­ri­mento)

Papel

Embora modelos de linguagem de grande escala disponham de abun­dan­tes dados e in­for­ma­ções, eles des­co­nhe­cem a intenção dos usuários. Portanto, é útil fornecer contexto à in­te­li­gên­cia ar­ti­fi­cial e atribuir um papel es­pe­cí­fico a ela: por exemplo, es­pe­ci­a­lista em SEO ou es­pe­ci­a­lista em marketing. Definir o papel da IA ajuda o modelo de linguagem a ajustar as respostas e criar re­sul­ta­dos re­le­van­tes no estilo ou na área desejada.

Objetivo

Defina, de forma precisa e concisa, qual é o objetivo principal do prompt LLM utilizado. Em com­bi­na­ção com o papel atribuído, a IA poderá emitir o resultado desejado, mesmo sem uma descrição muito detalhada. Prompts objetivos podem ser es­tru­tu­ra­dos da seguinte forma:

  • Exemplo 1: Você é um es­pe­ci­a­lista em SEO e deve criar sugestões de temas para artigos de blogs contendo a palavra-chave “prompts LLM” que sejam re­le­van­tes para os leitores.
  • Exemplo 2: Você é uma es­pe­ci­a­lista em so­bre­vi­vên­cia. Explique aos en­tu­si­as­tas de ati­vi­da­des ao ar livre inex­pe­ri­en­tes quais são os cinco critérios mais im­por­tan­tes para a montagem de um kit de so­bre­vi­vên­cia.

Me­tains­tru­ções

Para que o modelo de linguagem utilizado execute tarefas complexas de forma sa­tis­fa­tó­ria, é re­co­men­dá­vel dividi-las em sub­ta­re­fas. Se a IA deve, por exemplo, gerar sugestões de temas para artigos sobre “prompts LLM”, é útil solicitar à fer­ra­menta que pesquise por outras palavras-chave re­le­van­tes e as integre nas sugestões. Etapas podem ser não somente ser so­li­ci­ta­das à IA, mas também criadas pelo próprio modelo, como em um prompt do tipo “resolva a tarefa passo a passo e jus­ti­fi­que cada etapa do processo adotado”.

Exemplos de aplicação

Por meio de exemplos, a IA obtém uma melhor com­pre­en­são do resultado almejado. Quanto mais claros forem os exemplos es­co­lhi­dos, melhor o modelo de IA con­se­guirá entender os re­qui­si­tos. Para imitar o estilo de pre­fe­rên­cia, a in­te­li­gên­cia ar­ti­fi­cial nor­mal­mente precisa de poucos pontos de re­fe­rên­cia. Se for ne­ces­sá­rio gerar um texto sobre um de­ter­mi­nado tema, ge­ral­mente basta fornecer duas ou três amostras que cor­res­pon­dam às ex­pec­ta­ti­vas em termos de estrutura e vo­ca­bu­lá­rio.

Não muito longo

Prompts ex­ces­si­va­mente longos podem fazer com que a IA ignore ou não leve em con­si­de­ra­ção in­for­ma­ções im­por­tan­tes. Isso ocorre porque grandes modelos de linguagem tendem a se con­cen­trar prin­ci­pal­mente no início e no fim da janela de contexto. Por isso, é acon­se­lhá­vel evitar palavras des­ne­ces­sá­rias, focar em poucos e re­le­van­tes exemplos e resumir in­for­ma­ções es­sen­ci­ais de forma compacta.

Ex­pe­ri­men­tar

Em se tratando de IA ge­ne­ra­tiva, re­sul­ta­dos costumam variar ale­a­to­ri­a­mente. Mesmo quando o mesmo prompt LLM é usado, os re­sul­ta­dos sempre terão alguma variação. Es­pe­ci­a­lis­tas re­co­men­dam testar o mesmo comando várias vezes, ajustá-lo levemente ou até mesmo ex­pe­ri­men­tar um modelo de linguagem diferente caso a instrução inicial não gere um resultado sa­tis­fa­tó­rio.

Ir para o menu principal