Ilustração conceitual de memória para agentes de IA com nós conectados
Inteligência Artificial

MemPalace AI diz 1º score perfeito LongMemEval, bate rivais

O suposto feito do MemPalace AI Memory System no LongMemEval acende o debate sobre métricas, reprodutibilidade e o que realmente importa para dar memória confiável a agentes de IA em produção.

Danilo Gato

Danilo Gato

Autor

7 de abril de 2026
8 min de leitura

Introdução

MemPalace AI Memory System é a palavra-chave do momento porque a alegação é forte, teria alcançado o primeiro score perfeito no LongMemEval e superado rivais, segundo publicação atribuída a Ben Sigman no X em 2026. A postagem original está sob login restrito, então a análise aqui contrasta a alegação com resultados públicos recentes e o estado do debate sobre essa métrica de memória de longo prazo para LLMs.

O LongMemEval ganhou tração como teste para agentes com memória, cobrindo extração de fatos, raciocínio multi sessão, temporalidade, atualização de conhecimento e abstinência quando apropriado. Em 2024 a especificação acadêmica detalhou escopo e metodologia, colocando a régua para comparar abordagens que vão de RAG clássico a arquiteturas de memória dedicadas.

Este artigo explica o que exatamente o LongMemEval mede, como validar o suposto feito do MemPalace frente a claims recentes, quais armadilhas existem na comparação de números e como equipes podem testar memória de agentes de forma confiável.

O que o LongMemEval realmente mede

O LongMemEval foi proposto para avaliar cinco habilidades de memória de longo prazo em assistentes conversacionais, como informação factual, raciocínio entre sessões, raciocínio temporal, atualização de conhecimento e abstinência. A versão do paper destaca um conjunto de 500 questões que cruzam milhares de turnos, cobrindo múltiplas sessões e exigindo consistência de longo prazo. Isso o diferencia de testes puramente de contexto, já que força o sistema a recuperar e raciocinar a partir de rastros anteriores com linguagem parafraseada.

Ao mesmo tempo, a comunidade vem discutindo variações como o LongMemEval-S e benchmarks correlatos, como LoCoMo. Críticas recentes apontam problemas de julgamento e de reprodutibilidade em LoCoMo e questionam até que ponto algumas variações do LongMemEval se tornam mais um teste de janelamento de contexto do que de memória persistente. Essa discussão importa porque um score perfeito pode mascarar atalhos de avaliação.

Em suma, o LongMemEval é útil, mas precisa ser interpretado com cuidado. Um score alto sinaliza capacidade, porém não elimina a necessidade de verificar custos de inferência, latência, estabilidade entre rodadas e robustez fora do conjunto de teste.

O que o MemPalace alega ter feito

A alegação central é objetiva, o MemPalace AI Memory System teria obtido o primeiro score perfeito no LongMemEval, batendo rivais. Como a postagem no X está atrás de login, não há no momento documentação pública que detalhe protocolo, agente base, tamanho de contexto, seeds e repetibilidade. Por isso, a maneira responsável de encarar esse claim é posicioná lo ao lado de resultados auditáveis e exigir critérios mínimos de transparência, como publicação do conjunto de prompts, versões de modelo e logs de julgamento.

Vale frisar que o campo vive um boom de anúncios. Alguns times reportam 90 por cento mais em LongMemEval e correlatos, frequentemente com arquiteturas que combinam extração estruturada de memórias, compação semântica, re rankers e grafos de conhecimento. O leitor deve observar se a avaliação foi rodada end to end e se o sistema não apenas pré segmenta conteúdo para caber no contexto.

![AI memory concept image]

Como rivais vêm performando em 2025 e 2026

Diversas equipes e produtos publicaram resultados recentes. A Mastra reportou 94,87 por cento no LongMemEval com um setup baseado em GPT 5 mini, incluindo detalhamento de ablações e comparação com alternativas, um patamar alto e documentado. A página explica categorias onde houve 100 por cento em tarefas específicas, mas sem alegar perfeição geral.

A Supermemory publicou materiais alegando cerca de 99 por cento em LongMemEval s com arranjos agentic, o que reacendeu o debate sobre qual variante do benchmark está sendo usada e quanto é janela de contexto contra memória persistente. É material promocional e, embora interessante, carece de reprodutibilidade independente.

Outros anúncios chamaram atenção, como o ZeroMemory com “100 por cento de retrieval” em LongMemEval, mas focando em métrica de recuperação, não necessariamente na acurácia de resposta ponta a ponta sob o protocolo padrão. Essa distinção é crítica, retrieval perfeito não garante resposta correta quando a tarefa exige raciocínio multi passo ou atualização temporal.

Há também relatórios de players que se colocam como líderes, como o OMEGA, que publica placares e notas metodológicas e cita médias de 95 por cento em runs específicas, além de dados de base sobre onde RAG padrão costuma ficar. Esses repositórios são úteis por trazerem tabelas e parâmetros.

Do lado acadêmico, surgem arquiteturas novas como Mnemis, que combinam buscas tipo Sistema 1 com seleção global tipo Sistema 2, relatando resultados fortes em LoCoMo e LongMemEval S. A leitura técnica mostra a direção do estado da arte, mesmo quando os números não são iguais entre variantes.

Metodologia, reprodutibilidade e por que “perfeito” pede cautela

Auditorias comunitárias recentes questionam benchmarks de memória. Em threads técnicas, pesquisadores apontam que algumas variantes aceitam respostas com julgamento permissivo e que a teoria de score perfeito pode ser limitada por como os dados são montados e julgados. Existem relatos de dificuldades de reproduzir scores divulgados por projetos populares, além de argumentos de que em LongMemEval S tudo cabe na janela de contexto de modelos modernos, o que muda o que está sendo medido.

Para validar uma alegação de perfeição, o padrão ouro inclui, no mínimo, fornecer, 1, versão de modelo e contexto, 2, script reprodutível, 3, seeds e três a cinco rodadas independentes com média e desvio padrão, 4, logs de julgamentos e prompts do judge, 5, política de retries e orquestração de agentes, 6, custo, latência e limites de throughput, 7, teste cruzado em outros benchmarks de memória, como LoCoMo. Essa disciplina evita que um único run excepcional vire marketing sem lastro.

O que um time de produto deve observar além do placar

  • Custos e latência, um sistema que embeda e re ranqueia a cada turno pode multiplicar tokens e atrasar respostas. Alguns reports destacam que modelos de embedding maiores rendem só ganhos marginais em score, porém com 4 a 10 vezes de latência e memória. Meça o custo por resposta sob carga.
  • Interferência entre sessões, benchmarks cobram consistência, mas sua aplicação talvez precise escopos independentes por projeto, cliente ou workspace. Sem isso, memórias vazam e degradam precisão.
  • Atualização de conhecimento, memória boa não é só lembrar, é corrigir fatos com carimbo temporal. LongMemEval inclui esse aspecto, então verifique se a arquitetura tem mecanismo de versionamento e invalidação.
  • Observabilidade, sem trilha de memórias lidas, escritas e descartadas, você não consegue corrigir vieses ou bugs. Registre operações de memória como eventos auditáveis.

![LLM long-term memory diagram]

Exemplos práticos, do benchmark ao mundo real

  • Agente de suporte com personalização, use memória de perfil para preferências e limites contratuais, memórias episódicas para casos em andamento e memórias semânticas para políticas. Avalie com um subconjunto do LongMemEval que foque multi sessão e atualização de conhecimento.
  • Copiloto de documentação, combine extração estruturada de fatos com grafos de entidade e versionamento, como mostram frameworks que buscam orquestrar memória leve e categorizada. Em benchmarks, essa abordagem tem reduzido custo mantendo precisão.
  • Assistente de engenharia, na prática, placares altos podem não cobrir “memória de criação”, por exemplo, quais PRs foram abertos no último mês ou quais imagens foram geradas em um projeto. Planeje uma camada que conecte memória a artefatos reais, não só a conversas.

Checklist técnico para testar memória no seu stack

  1. Reprodutibilidade, rode três a cinco seeds por sistema e reporte média e desvio padrão.
  2. Varredura de custos, estime tokens por leitura, escrita, compactação, re ranking e verificação, reporte custo por 100 conversas e 1 mil conversas.
  3. Robustez temporal, injete eventos que atualizam fatos e verifique se o agente corrige respostas antigas com timestamp.
  4. Stress de janelamento, force conversas longas e documentos extensos para avaliar se o sistema cai para full context dump em vez de recuperar memórias relevantes.
  5. Métricas adicionais, além do score do benchmark, meça precisão por categoria, latência p95, taxa de abstinência correta e erros de confabulação.
  6. Auditoria, gere explicações de por que cada memória foi resgatada e como influenciou a resposta final, guarde logs para post mortem.

Onde essa corrida por memória está agora

Há convergência em alguns pontos. Primeiro, os melhores resultados não vêm de uma técnica isolada, mas de pipelines que combinam extração estruturada, compactação guiada, grafos, rerankers e julgamento especializado. Segundo, scores muito altos em uma variante exigem checagem cruzada em outras e, preferencialmente, avaliações independentes. Terceiro, o ecossistema amadurece, com repositórios que publicam números, documentação e scripts, o que ajuda a separar hype de engenharia séria.

Se o MemPalace de fato atingiu perfeição no LongMemEval sob protocolo canônico, é um marco. Mas perfeição em um benchmark não encerra a discussão, já que produção exige previsibilidade de custo, latência e comportamento estável sob dados não vistos e distribuições mudando no tempo.

Conclusão

A alegação de primeiro score perfeito do MemPalace AI Memory System no LongMemEval coloca foco no que mais importa, memória confiável e auditável para agentes. O momento é fértil, com rivais reportando 90 a 99 por cento e novas arquiteturas acadêmicas subindo a barra, porém a comunidade também pressiona por reprodutibilidade e avaliação justa. A síntese é simples, celebre avanços, mas valide com rigor.

A melhor decisão técnica nasce de números transparentes, testes repetíveis e métricas que refletem seu caso de uso. Use o LongMemEval como uma peça do quebra cabeça, não como único oráculo. Priorize logs, versionamento e explicabilidade da camada de memória. É assim que promessas viram produtos que lembram o que importa, quando importa, ao custo certo.

Tags

LLMsAgentes de IABenchmarksRAGMemória de longo prazo