Robô de entrega Coco Robotics em calçada urbana, bandeira laranja visível
IA e Computação Espacial

Niantic treinou mapas IA com 30 bi de imagens do Pokémon Go

Niantic Spatial diz ter treinado um mapa de IA com 30 bilhões de imagens coletadas em Pokémon Go e agora usa esse mapa para guiar robôs de entrega, em parceria com a Coco Robotics, com precisão de centímetros em áreas urbanas.

Danilo Gato

Danilo Gato

Autor

18 de março de 2026
10 min de leitura

Introdução

Niantic treinou mapas de IA com 30 bilhões de imagens do Pokémon Go, e essa mesma base já está sendo aplicada para navegação de entregas com a Coco Robotics. A empresa afirma que o seu Visual Positioning System localiza com precisão de centímetros ao alinhar imagens do mundo real com um grande mapa visual, algo que complementa ou substitui o GPS em áreas onde o sinal falha.

O número, 30 bilhões de imagens, aparece em comunicações oficiais da Niantic Spatial e em coberturas recentes da parceria com a Coco. Além disso, curadorias de tecnologia destacaram a matéria original do MIT Technology Review como gatilho da conversa pública, reforçando que a tecnologia migrou do entretenimento para a logística.

Este artigo detalha o que é o mapa visual de IA, como ele funciona na prática com robôs de entrega, os benefícios e limitações técnicas, os debates sobre privacidade e os próximos passos para empresas que desejam usar esse tipo de infraestrutura geoespacial.

Como um mapa de IA baseado em visão funciona

A proposta da Niantic Spatial parte de um Large Geospatial Model, treinado sobre mais de 30 bilhões de imagens com pose conhecida, coletadas em milhões de locais. Em vez de depender apenas de satélites, o sistema compara o que a câmera vê com um banco de dados visual global para estimar posição e orientação com altíssima precisão. Em termos práticos, isso significa reconhecer fachadas, esquinas e marcos urbanos, depois estimar onde a câmera está, para onde aponta e como se move.

A empresa afirma que o VPS atinge precisão de centímetros e já oferece milhões de pontos de localização prontos para produção. Embora a precisão exata varie por cenário, a estratégia é clara, usar visão computacional como “GPS visual” onde o sinal tradicional sofre com multipercurso, canyons urbanos e interferências. Essa linha tem respaldo em anúncios públicos da própria Niantic e em parcerias com ecossistemas de AR, como a colaboração multi anual com a Snap para um mapa de IA compartilhado.

Esse enfoque acompanha o estado da arte em navegação visual, que combina visão com sensores inerciais e, quando disponível, GNSS, para robustez. A literatura recente em modelos de navegação e reconstrução 3D com técnicas como Gaussian Splatting reforça a tendência de mesclar mapas visuais densos com modelos que generalizam melhor em 3D. Embora não sejam estudos da Niantic, indicam o caminho técnico seguido pelo setor.

Do jogo ao asfalto, por que a Coco Robotics entrou na história

Em 10 de março de 2026, a Niantic Spatial anunciou parceria com a Coco Robotics para integrar seu VPS ao novo robô de entrega da empresa, elevando a precisão em vias complexas e densas. A Coco mira operação mais autônoma em ruas e ciclovias, reduzindo dependência de teleoperação e melhorando confiabilidade. A imprensa técnica relatou que a Coco 2 pode sair da calçada para ruas e faixas de bike, beneficiando-se de posicionamento visual mais estável que o GPS em centros urbanos.

A escala da Coco ajuda a explicar o interesse, reportagens regionais já mostravam planos de expansão agressiva da frota em Los Angeles e outros mercados. Quanto mais bots, maior o ganho marginal com uma navegação centimétrica, reduzindo tempo de rota, paradas indevidas e replanejamentos.

![Coco delivery robot em operação]

O que muda em navegação urbana com um mapa visual

  • Precisão e robustez, o “GPS visual” se ancora em fachadas e marcos que raramente mudam da noite para o dia, entregando posição e orientação com erros pequenos em canyons urbanos. Em entregas, isso permite aproximar o bot da porta certa, interpretar travessias e evitar retornos desnecessários.
  • Escalabilidade, ao contrário de lidar apenas com sensores próprios, a Niantic construiu um acervo massivo com 30 bilhões de imagens e milhões de locais. Essa escala dificilmente seria replicada do zero por uma startup de robótica.
  • Integração com ecossistemas, a parceria com a Snap e apresentações no GDC 2025 mostram uma arquitetura pensada para devs e para cenários além de jogos, incluindo logística e robótica.

Na prática, o bot navega assim, a câmera captura a cena, o sistema extrai descritores visuais e consulta o banco de dados do VPS para obter uma pose inicial precisa. Em seguida, a odometria visual e sensores inerciais refinam o movimento entre frames. Quando há sinal, o GNSS entra como fonte extra de consistência. O resultado, rotas mais estáveis, menos hesitações em cruzamentos e entregas mais previsíveis no relógio.

De onde vêm as imagens, o papel do Pokémon Go

A coleta se apoia em recursos de AR Mapping do Pokémon Go e produtos correlatos, em que jogadores registram vídeos ou varreduras rápidas de PokéStops e marcos. Essa mecânica existe há anos e foi documentada por sites especializados da comunidade, notas oficiais e páginas de ajuda que explicam o recurso de scans e fotos AR. O ponto novo em 2026 é a ênfase pública da Niantic Spatial em usar essa massa para aplicações de navegação e robótica, além do entretenimento.

Coberturas recentes sintetizaram esse elo, jogadores alimentaram um mapa visual hoje aplicado em logística. A curadoria do TechMeme indicou a reportagem do MIT Technology Review como fonte do detalhe sobre 30 bilhões e a migração do uso para delivery. GamesRadar também repercutiu as falas de executivos da Niantic sobre precisão de centímetros e o salto para robôs da Coco.

Importante frisar, a própria Niantic Spatial publica desde 2024 e 2025 que seu VPS buscava aplicações em logística, armazéns e autonomia, o que torna a parceria de 2026 uma sequência lógica, e não uma guinada de última hora.

Benefícios práticos para operações de entrega

  • Redução de replanejamentos, o bot erra menos esquinas e entradas, porque sabe exatamente onde está, e isso reduz voltas e correções caras.
  • Cobertura além de GPS, em ruas estreitas, túneis urbanos e sob marquises altas, a referência visual mantém a pose estável quando o GNSS degrada.
  • Mais horários úteis, robôs que confiam menos em teleoperação e mais em navegação local podem operar tarde da noite e em horários críticos, tese destacada em matérias sobre a nova geração da Coco.
  • Base viva, como o jogo continua ativo, o mapa visual tende a ser continuamente atualizado, o que ajuda o VPS a refletir mudanças de fachada e obras. A Niantic indica milhões de locais já suportados em produção.

![Robô de entrega em via urbana]

Ilustração do artigo

Privacidade, consentimento e expectativas do usuário

A reação pública variou, parte da comunidade considerou óbvio que scans AR treinariam mapas, outros apontaram sentimento de surpresa ao ver a aplicação em robôs. A documentação da Niantic sobre AR, páginas de ajuda e guias de terceiros sempre relacionaram scans com mapeamento 3D e melhoria de AR. A novidade foi a clareza de uso para navegação autônoma urbana, agora explicitada por anúncios e reportagens.

Para empresas que desejam adotar VPSs visuais, boas práticas incluem, comunicar de forma clara a finalidade dos dados, minimizar coleta sensível em áreas residenciais e aplicar técnicas de ofuscação de rostos e placas. Também importa permitir opt-outs ao nível de tarefa e de conta, sempre quando tecnicamente possível e compatível com a segurança da plataforma.

Onde isso se encaixa no cenário maior de computação espacial

A combinação de mapas visuais, modelos 3D e LLMs com raciocínio espacial cria um “sistema operacional do mundo”, como a própria Niantic descreve. Esse stack é alvo de alianças estratégicas, como a parceria com a Snap, e de interesse de setores como defesa e mobilidade, que avaliam posicionamento visual como plano B quando GPS não está disponível. Relatos do setor falam em plataformas unificadas para posicionamento ar-terra, reforçando a tendência de fusão entre visão, inercial e sinais alternativos.

No plano técnico, a fronteira corre para integrar reconstrução neural, mapas semânticos por pixel e objetos dinâmicos, permitindo a um agente entender não só “onde” mas “o que é” e “como se move”. A própria Niantic Spatial diz classificar categorias como céu e chão, além de detectar centenas de classes de objetos, algo fundamental para robótica conviver com pedestres, bicicletas e carros.

Oportunidades e riscos para negócios

  • Comércio local e restaurantes, entregas mais previsíveis e baratas tendem a aumentar LTV, reduzir tempo de espera e ampliar horários.
  • Varejo dark store e last mile, navegação robusta melhora SLAs e rotas micro urbanas, inclusive em bairros densos ou com GPS pobre.
  • Indústria e armazéns, VPS indoor e outdoor promete inventário guiado por visão, picking assistido e redução de erros, como a própria Niantic sugeriu em seus anúncios de plataforma.
  • Governos locais, convém atualizar marcos regulatórios para bots em ciclovias e ruas, criar zonas de teste e métricas de segurança, além de requisitos de transparência sobre coleta visual em espaços públicos.

Como começar a experimentar com VPS e mapas visuais

  • Avaliar provedores, além da Niantic Spatial, há ecossistemas de AR e navegação que oferecem SDKs e APIs. No caso da Niantic, a empresa divulga serviços, IDE na nuvem e integração com engines populares.
  • Provar casos indoor e outdoor, comece com um piloto de navegação em pátios, estacionamentos e redondezas do estabelecimento, validando robustez com e sem GNSS.
  • Medir impacto, compare entregas por janela de horário, tempo de rota, número de correções por quilômetro e taxa de intervenção humana, especialmente em áreas urbanas densas.
  • Planejar compliance, documente finalidades, ciclo de vida dos dados visuais e políticas de remoção ou anonimização.

Perguntas que todo decisor deveria fazer

  1. Qual a cobertura do VPS na minha cidade e no meu raio de operação, quantos pontos de localização prontos existem no meu trajeto alvo.
  2. Qual a precisão típica em ruas estreitas, sob marquises ou em canyons urbanos e como isso afeta meu SLA noturno e em horários de pico.
  3. Como o fornecedor atualiza o mapa, há cadência contínua baseada em novas imagens e qual o tempo de incorporação de mudanças urbanas.
  4. Quais são os mecanismos de privacidade e governança de dados, incluindo opt-outs, ofuscação e retenção mínima de dados sensíveis.

O que observar nos próximos meses

  • Escala de frota, veículos como o Coco 2 ganham recursos para sair da calçada e acessar ciclovias e ruas, exigindo mapas ainda mais consistentes. A adoção em novos bairros e cidades será um termômetro.
  • Parcerias cruzadas, acordos como o de Snap e novas integrações com plataformas de IA e robótica indicarão a maturidade do ecossistema.
  • Métricas de campo, queda em intervenções humanas, acidentes evitados por contextualização visual e ganhos em tempo de entrega serão os indicadores decisivos.

Conclusão

O uso de 30 bilhões de imagens do Pokémon Go para treinar mapas de IA mostra que a década de jogos em realidade aumentada serviu de base para uma infraestrutura de navegação do mundo real. Quando um bot como o da Coco navega ruas e ciclovias com precisão de centímetros, a promessa da computação espacial deixa o laboratório e vira logística aplicada. Os anúncios da Niantic Spatial e as reportagens de março de 2026 sugerem que esse “GPS visual” amadureceu e está pronto para operar no mundo, não só em telas.

O passo seguinte passa por responsabilidade, mais transparência sobre coleta visual, salvaguardas de privacidade e KPIs de segurança, além de alianças com cidades para padronizar operações. Empresas que entrarem agora tendem a capturar mais eficiência e criar novas experiências para clientes, aproveitando uma vantagem competitiva enraizada em mapas que não só representam o mundo, como o compreendem.

Tags

geolocalização visualrobótica de entregasrealidade aumentada