O que é LLM? | Large Language Model
Por André Lourenti Magalhães • Editado por Douglas Ciriaco |
Sigla para Large Language Model (“Grande Modelo de Linguagem”, em tradução livre), o LLM é um modelo de aprendizado de máquina treinado para aprender a partir de enormes bases de dados. Como resultado, a tecnologia consegue gerar uma linguagem para conversar com humanos e desenvolver contexto, permitindo às pessoas obterem respostas rápidas em plataformas de IA generativa.
As tecnologias de inteligência artificial de conversação ou que criam imagens, como ChatGPT, Gemini, Copilot, DALL-E e Midjourney, dependem de um LLM para funcionar e fazer o que fazem. É essa rede neural que torna apps de IA capazes de acumular todo o conhecimento das bases de dados e convertê-lo em respostas em texto, imagem, vídeo, código de programação e muito mais.
Como funciona um LLM?
O LLM funciona como um grande algoritmo que combina conceitos de aprendizado de máquina e deep learning: uma rede neural é criada para interpretar e aprender com dados de sites, livros, artigos científicos e vídeos, processando-os em tempo real. O modelo é capaz de compreender contextos, significados e linguagens para desenvolver respostas em texto.
Com esse treinamento, o usuário pode interagir com essa rede neural a partir de frases e comandos — os chamados prompts das ferramentas de inteligência artificial.
Em comparação com outras ferramentas de machine learning, o LLM leva vantagem por conseguir interpretar várias funções num único modelo. Por exemplo: o Google Tradutor pode usar aprendizado de máquina para traduzir um texto, mas uma IA com base em LLM como o ChatGPT é capaz de traduzir e ainda realizar outras tarefas, como gerar texto do zero ou até criar códigos de programação.
Além disso, um Large Language Model é capaz de adquirir contexto e ser moldado para funções específicas. Cada novo prompt durante uma interação pode conter informações adicionais que o LLM usa para expandir a base de dados e proporcionar uma resposta mais precisa.
Como o LLM adquire contexto?
Como já foi mencionado, um LLM se alimenta das informações de dados públicos, mas é possível refinar as suas conversas com a IA a partir de contextualização. A cada novo prompt, você pode fornecer mais dados e informações que contribuam para um resultado mais preciso.
Confira o exemplo a seguir: a primeira pergunta ao Bard (“qual fonte de carboidratos eu comi hoje?”) não pode ser respondida pela plataforma porque não é possível obter essa informação pessoal. No entanto, ao adicionar contexto para a segunda pergunta, o Bard consegue oferecer uma resposta mais precisa com base no conteúdo informado.
Por outro lado, vale a pena ressaltar que o contexto adquirido não fica salvo pelo LLM. Após uma sequência de prompts, a IA encerra a conversa e só é possível começar outro diálogo com os dados públicos da base da ferramenta. No caso da IA do Bing, por exemplo, as informações são restauradas a cada seis prompts.
LLM e conteúdo original
As LLMs possuem grande potencial, mas existem muitas ressalvas com relação ao treinamento dos modelos de IA e a criação de conteúdos originais. Algumas plataformas podem replicar conteúdo já existente e gerar plágio, enquanto existem situações em que a IA interpreta um texto já existente e diz que ela mesma o inventou.
Isso também envolve direitos autorais: as linguagens podem coletar dados de livros e outras obras com proteção intelectual, e isso já foi tema de processos contra a OpenAI. Por fim, há o risco de produzir informações falsas e relatá-las como fatos, mais um problema envolvendo plataformas de IA.
Agora que você sabe como funciona um LLM, pode vê-lo em ação com ferramentas de IA que conseguem responder a perguntas.