Skip to content

Mecanismo de Atenção em LLMs

Updated: at 06:07 PM

Geração de Texto em LLMs

As fontes indicam que o processo de geração de texto em Transformadores e LLMs (Grandes Modelos de Linguagem) é, fundamentalmente, um ciclo de predição e amostragem repetidas.

O Princípio da Predição

Modelos como o ChatGPT são variantes do Transformador treinadas para:

  1. Receber um trecho de texto (que pode incluir imagens ou sons associados).
  2. Produzir uma previsão para o que virá a seguir na passagem.
  3. Formatar essa previsão como uma distribuição de probabilidade sobre muitos trechos diferentes de texto que podem se seguir.

À primeira vista, pode parecer que “prever a próxima palavra” é um objetivo muito diferente de “gerar um novo texto”.

O Ciclo de Geração de Texto Contínuo

Para gerar um trecho de texto mais longo, um modelo de previsão como este utiliza um processo repetitivo:

  1. Fornecimento de entrada: é dado um trecho inicial de texto para o modelo trabalhar.
  2. Amostragem: o modelo escolhe uma amostra aleatória da distribuição de probabilidade que acabou de gerar.
  3. Anexação: essa amostra é anexada ao texto.
  4. Repetição: o modelo executa todo o processo novamente para fazer uma nova previsão com base no novo texto, incluindo o que acabou de ser adicionado.

Este processo de predição e amostragem repetidas é essencialmente o que acontece quando se interage com o ChatGPT ou outros grandes modelos de linguagem, vendo-os produzir uma palavra por vez.

O Impacto da Escala

As fontes notam que, apesar de o mecanismo de predição repetida não parecer que deveria funcionar, a escala do modelo é crucial para a geração de texto sensato.

Controlo da Geração (Temperatura)

A amostragem da distribuição de probabilidade pode ser controlada através de uma constante chamada temperatura (t):

Aplicação como Chatbot

Antes do ChatGPT se popularizar, este processo era usado para fazer o GPT-3 preencher automaticamente histórias e ensaios com base num trecho inicial.

Para transformar este modelo de previsão repetida num chatbot:

  1. Utiliza-se um pequeno texto (prompt do sistema) que estabelece a configuração de um utilizador a interagir com um assistente de IA prestativo.
  2. O prompt do utilizador é anexado como a primeira parte do diálogo, e o modelo começa a prever o que o assistente diria em resposta.

O processo de predição repetida transforma o Transformador num contador de histórias sequencial, onde a escala gigantesca do modelo (LLM) fornece o conhecimento contextual para que cada nova palavra escolhida pareça sensata e coerente.