Meta llama: tudo o que você precisa saber sobre o modelo de IA generativo aberto
Como todas as grandes empresas de tecnologia hoje em dia, a Meta tem seu próprio modelo generativo de IA, chamado llama. A LLAMA é um pouco única entre os principais modelos, pois é “aberto”, o que significa que os desenvolvedores podem fazer o download e usá -lo da maneira que eles agradarem (com certas limitações). Isso contrasta com modelos como Claude do Anthropic, Gemini do Google, GROK de Xai e a maioria dos modelos ChatGPT do OpenAI, que só podem ser acessados via APIs.
No interesse de dar à escolha dos desenvolvedores, no entanto, a Meta também fez parceria com fornecedores, incluindo AWS, Google Cloud e Microsoft Azure, para disponibilizar as versões de Llama, hospedado em nuvem. Além disso, a empresa publica ferramentas, bibliotecas e receitas em seu livro de receitas de lhama para ajudar os desenvolvedores a ajustar, avaliar e adaptar os modelos ao seu domínio. Com novas gerações como Llama 3 e Llama 4, esses recursos se expandiram para incluir suporte multimodal nativo e lançamentos mais amplos em nuvem.
Aqui está tudo o que você precisa saber sobre a lhama da Meta, desde suas capacidades e edições até onde você pode usá -lo. Manteremos esta postagem atualizada como atualizações de meta libera e introduz novas ferramentas de desenvolvimento para apoiar o uso do modelo.
O que é Llama?
Llama é uma família de modelos – não apenas um. A versão mais recente é Llama 4; Foi lançado em abril de 2025 e inclui três modelos:
- Scout: 17 bilhões de parâmetros ativos, 109 bilhões de parâmetros totais e uma janela de contexto de 10 milhões de tokens.
- Maverick: 17 bilhões de parâmetros ativos, 400 bilhões de parâmetros totais e uma janela de contexto de 1 milhão de tokens.
- Behemoth: Ainda não foi lançado, mas terá 288 bilhões de parâmetros ativos e 2 trilhões de parâmetros totais.
(Na ciência de dados, os tokens são bits subdivididos de dados brutos, como as sílabas “fãs”, “tas” e “tic” na palavra “fantástico”.
O contexto de um modelo, ou janela de contexto, refere -se aos dados de entrada (por exemplo, texto) que o modelo considera antes de gerar saída (por exemplo, texto adicional). O contexto longo pode impedir que os modelos “esquecem” o conteúdo de documentos e dados recentes e de desviar o tópico e extrapolar erroneamente. No entanto, as janelas de contexto mais longas também podem resultar no modelo “esquecendo” certos corrimãos de segurança e sendo mais propenso a produzir conteúdo que está alinhado com a conversa, o que levou alguns usuários a ser pensamento ilusório.
Para referência, a janela de 10 milhões de contexto que Llama 4 Promete aproximadamente o texto de cerca de 80 romances comuns. LLAMA 4 A janela de contexto de 1 milhão de Maverick é igual a cerca de oito romances.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Todos os modelos LLAMA 4 foram treinados em “grandes quantidades de dados, imagem e vídeo não marcados” para dar a eles “amplo entendimento visual”, bem como em 200 idiomas, de acordo com a Meta.
Scout e Maverick são os primeiros modelos nativamente multimodais do Meta-Weight. Eles são construídos usando uma arquitetura “Mistura de especialistas” (MOE), que reduz a carga computacional e melhora a eficiência no treinamento e inferência. Scout, por exemplo, possui 16 especialistas, e Maverick tem 128 especialistas.
O gigante LLAMA 4 inclui 16 especialistas, e a Meta se refere a ele como professor para os modelos menores.
O LLAMA 4 se baseia na série LLAMA 3, que incluiu modelos 3.1 e 3.2 amplamente utilizados para aplicativos ajustados por instruções e implantação em nuvem.
O que a lhama pode fazer?
Como outros modelos generativos de IA, a lhama pode executar uma variedade de tarefas de assistência diferentes, como codificar e responder a perguntas básicas de matemática, além de resumir documentos em pelo menos 12 idiomas (árabe, inglês, alemão, francês, hindi, indonésio, italiano, português, hindi, espanhol, tagalo, tailandês e vietnamês). A maioria das cargas de trabalho baseada em texto-pense em analisar arquivos grandes, como PDFs e planilhas-estão dentro de sua altura e todos os modelos LLAMA 4 suportam texto, imagem e entrada de vídeo.
O LLAMA 4 Scout foi projetado para fluxos de trabalho mais longos e análise de dados maciça. O Maverick é um modelo generalista que é melhor em equilibrar o poder de raciocínio e a velocidade de resposta e é adequado para codificação, chatbots e assistentes técnicos. E Behemoth foi projetado para pesquisas avançadas, destilação de modelos e tarefas STEM.
Os modelos de llama, incluindo o LLAMA 3.1, podem ser configurados para alavancar aplicativos, ferramentas e APIs de terceiros para executar tarefas. Eles são treinados para usar uma busca corajosa para responder perguntas sobre eventos recentes; a API alfa de Wolfram para consultas relacionadas à matemática e da ciência; e um intérprete Python para validar o código. No entanto, essas ferramentas requerem configuração adequada e não são ativadas automaticamente para fora da caixa.
Onde posso usar lhama?
Se você deseja simplesmente conversar com a LLAMA, está alimentando a experiência Meta Ai Chatbot no Facebook Messenger, WhatsApp, Instagram, Oculus e Meta.ai em 40 países. As versões ajustadas da llama são usadas em experiências de meta-IA em mais de 200 países e territórios.
Os modelos LLAMA 4 Scout e Maverick estão disponíveis no LLAMA.com e os parceiros da Meta, incluindo a plataforma de desenvolvedor de IA, abraçando o rosto. Behemoth ainda está em treinamento. Os desenvolvedores que construem com lhama podem baixar, usar ou ajustar o modelo na maioria das plataformas populares em nuvem. A Meta afirma que possui mais de 25 parceiros que hospedam llama, incluindo Nvidia, Databricks, Groq, Dell e Snowflake. E enquanto “vender acesso” aos modelos abertamente disponíveis da Meta não é o modelo de negócios da Meta, a empresa ganha algum dinheiro através de acordos de compartilhamento de receita com hosts de modelos.
Alguns desses parceiros criaram ferramentas e serviços adicionais em cima do LLAMA, incluindo ferramentas que permitem que os modelos referenciam dados proprietários e permitam que eles executem em latências mais baixas.
Importante, a licença de lhama restringe como os desenvolvedores podem implantar o modelo: Desenvolvedores de aplicativos com mais de 700 milhões de usuários mensais devem solicitar uma licença especial da Meta que a empresa conceda a seu critério.
Em maio de 2025, a Meta lançou um novo programa para incentivar as startups a adotar seus modelos de lhama. A LLAMA for Startups oferece suporte às empresas da equipe de Llama da Meta e acesso a financiamento potencial.
Juntamente com a llama, a Meta fornece ferramentas destinadas a tornar o modelo “mais seguro” para usar:
- Call Guarduma estrutura de moderação.
- Cybersecevaluma suíte de avaliação de risco de segurança cibernética.
- Firewall de lhamaum corrimão de segurança projetado para permitir a construção de sistemas seguros de IA.
- Escudo de códigoque fornece suporte para a filtragem de tempo de inferência de código inseguro produzido pelo LLMS.
A guarda de lhama tenta detectar conteúdo potencialmente problemático alimentado-ou gerado-por um modelo de lhama, incluindo conteúdo relacionado a atividades criminosas, exploração infantil, violações de direitos autorais, ódio, auto-mutilação e abuso sexual.
Dito isto, claramente não é uma bala de prata, já que as diretrizes anteriores da Meta permitiram que o chatbot se envolvesse em bate -papos sensuais e românticos com menores, e alguns relatórios mostram que aqueles transformados em conversas sexuais. Desenvolvedores podem personalizar As categorias de conteúdo bloqueado e aplicam os blocos a todos os suportes de lhama de idiomas.
Como a guarda da lhama, o rápido guarda pode bloquear o texto destinado à lhama, mas apenas o texto destinado a “atacar” o modelo e fazer com que ele se comporte de maneiras indesejáveis. A Meta afirma que a Guarda de Lhama pode se defender contra instruções explicitamente maliciosas (ou seja, jailbreaks que tentam contornar os filtros de segurança embutidos da LLAMA), além de prompts que contêm “entradas injetadas. ” O Firewall da LLAMA trabalha para detectar e impedir riscos, como injeção imediata, código inseguro e interações de ferramentas de risco.
Quanto ao cibernético, é menos uma ferramenta do que uma coleção de benchmarks para medir a segurança do modelo. O CyberSeCeval pode avaliar o risco que um modelo de llama representa (pelo menos de acordo com os critérios da Meta) para desenvolvedores de aplicativos e usuários finais em áreas como “engenharia social automatizada” e “dimensionar operações cibernéticas ofensivas”.
Limitações de Lhama
A LLAMA vem com certos riscos e limitações, como todos os modelos generativos de IA. Por exemplo, embora seu modelo mais recente tenha recursos multimodais, eles são limitados principalmente ao idioma inglês por enquanto.
O zoom, a Meta usou um conjunto de dados de e-books pirateados e artigos para treinar seus modelos de lhama. Um juiz federal recentemente ficou do lado da Meta em um processo de direitos autorais apresentado contra a empresa por 13 autores de livros, decidindo que o uso de obras protegidas por direitos autorais para o treinamento se enquadrava em “Uso justo”. No entanto, se a Llama regurgar um trecho protegido por direitos autorais e alguém o usar em um produto, eles poderiam estar violando os direitos autorais e serem responsáveis.
A Meta também treina controversa sua IA no Instagram e postagens do Facebook, fotos e legendas e Torna difícil para os usuários optar por não participar.
A programação é outra área em que é aconselhável pisar levemente ao usar lhama. Isso porque Llama pode – talvez mais do que seus colegas generativos de IA – produzir buggy ou código inseguro. Sobre LivecodeBenchUma referência que testa modelos de IA em problemas de codificação competitiva, o modelo Maverick da Meta Llama 4 alcançou uma pontuação de 40%. Isso é comparado a 85% para o GPT-5 do Openai e 83% para o GROK 4 do Xai.
Como sempre, é melhor ter uma revisão de especialistas em humanos qualquer código gerado pela IA antes de incorporá-lo em um serviço ou software.
Finalmente, como em outros modelos de IA, os modelos de lhama ainda são culpados de gerar informações plausíveis, mas falsas ou enganosas, seja em codificação, orientação legal ou conversas emocionais com as personas da IA.
Isso foi publicado originalmente em 8 de setembro de 2024 e é atualizado regularmente com novas informações.
Share this content:
Publicar comentário