Publicidade

O que é LLM? | Large Language Model

Por  • Editado por  Douglas Ciriaco  | 

Compartilhe:
Tara Winstead/Pexels
Tara Winstead/Pexels

Sigla para Large Language Model (“Grande Modelo de Linguagem”, em tradução livre), o LLM é um modelo de aprendizado de máquina treinado para aprender a partir de enormes bases de dados. Como resultado, a tecnologia consegue gerar uma linguagem para conversar com humanos e desenvolver contexto, permitindo às pessoas obterem respostas rápidas em plataformas de IA generativa.

As tecnologias de inteligência artificial de conversação ou que criam imagens, como ChatGPT, Gemini, Copilot, DALL-E e Midjourney, dependem de um LLM para funcionar e fazer o que fazem. É  essa rede neural que torna apps de IA capazes de acumular todo o conhecimento das bases de dados e convertê-lo em respostas em texto, imagem, vídeo, código de programação e muito mais.

Como funciona um LLM?

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O LLM funciona como um grande algoritmo que combina conceitos de aprendizado de máquina e deep learning: uma rede neural é criada para interpretar e aprender com dados de sites, livros, artigos científicos e vídeos, processando-os em tempo real. O modelo é capaz de compreender contextos, significados e linguagens para desenvolver respostas em texto.

Com esse treinamento, o usuário pode interagir com essa rede neural a partir de frases e comandos — os chamados prompts das ferramentas de inteligência artificial.

Em comparação com outras ferramentas de machine learning, o LLM leva vantagem por conseguir interpretar várias funções num único modelo. Por exemplo: o Google Tradutor pode usar aprendizado de máquina para traduzir um texto, mas uma IA com base em LLM como o ChatGPT é capaz de traduzir e ainda realizar outras tarefas, como gerar texto do zero ou até criar códigos de programação.

Além disso, um Large Language Model é capaz de adquirir contexto e ser moldado para funções específicas. Cada novo prompt durante uma interação pode conter informações adicionais que o LLM usa para expandir a base de dados e proporcionar uma resposta mais precisa.

Como o LLM adquire contexto?

Como já foi mencionado, um LLM se alimenta das informações de dados públicos, mas é possível refinar as suas conversas com a IA a partir de contextualização. A cada novo prompt, você pode fornecer mais dados e informações que contribuam para um resultado mais preciso.

Confira o exemplo a seguir: a primeira pergunta ao Bard (“qual fonte de carboidratos eu comi hoje?”) não pode ser respondida pela plataforma porque não é possível obter essa informação pessoal. No entanto, ao adicionar contexto para a segunda pergunta, o Bard consegue oferecer uma resposta mais precisa com base no conteúdo informado.

Continua após a publicidade

Por outro lado, vale a pena ressaltar que o contexto adquirido não fica salvo pelo LLM. Após uma sequência de prompts, a IA encerra a conversa e só é possível começar outro diálogo com os dados públicos da base da ferramenta. No caso da IA do Bing, por exemplo, as informações são restauradas a cada seis prompts.

LLM e conteúdo original

As LLMs possuem grande potencial, mas existem muitas ressalvas com relação ao treinamento dos modelos de IA e a criação de conteúdos originais. Algumas plataformas podem replicar conteúdo já existente e gerar plágio, enquanto existem situações em que a IA interpreta um texto já existente e diz que ela mesma o inventou.

Isso também envolve direitos autorais: as linguagens podem coletar dados de livros e outras obras com proteção intelectual, e isso já foi tema de processos contra a OpenAI. Por fim, há o risco de produzir informações falsas e relatá-las como fatos, mais um problema envolvendo plataformas de IA.

Continua após a publicidade

Agora que você sabe como funciona um LLM, pode vê-lo em ação com ferramentas de IA que conseguem responder a perguntas.