Cadeados e código digital representando segurança e privacidade em IA
Segurança em IA

Perplexity lança o Secure Intelligence Institute de IA segura

Perplexity anuncia o Secure Intelligence Institute para acelerar pesquisas aplicadas em segurança, privacidade e confiança em IA, conectando academia, produto e padrões de mercado com foco prático.

Danilo Gato

Danilo Gato

Autor

1 de abril de 2026
9 min de leitura

Introdução

A criação do Secure Intelligence Institute coloca segurança em IA no centro da estratégia da Perplexity, unindo pesquisa de ponta e aplicação prática para proteger usuários e empresas. O Secure Intelligence Institute aparece como unidade dedicada a segurança, privacidade e confiança, com vagas abertas e missão explícita de transformar pesquisa em melhorias concretas de produto.

A palavra de ordem é execução. Em 22 de março de 2026, o anúncio de vagas para o instituto detalhou objetivos como modelos de ameaça para navegadores, busca e agentes, além da criação de benchmarks e frameworks de avaliação de defesas. No dia 1 de abril de 2026, uma matéria de tecnologia noticiou formalmente o lançamento do Secure Intelligence Institute, indicando foco em parcerias acadêmicas e projetos como um benchmark de navegação segura.

O artigo aprofunda por que este movimento importa para segurança em IA, como ele se conecta ao histórico recente da Perplexity com recursos empresariais e governo, onde a iniciativa pode gerar impacto prático e o que líderes de tecnologia podem adotar hoje para elevar a barra de proteção em produtos com IA.

O que é o Secure Intelligence Institute, por que existe e o que promete

O Secure Intelligence Institute, ou SII, é apresentado como o centro de pesquisa da Perplexity para segurança, privacidade e confiança em sistemas de inteligência de fronteira. O escopo inclui realizar pesquisa original, traduzir resultados em melhorias de produto e compartilhar recursos com a comunidade. As responsabilidades divulgadas incluem desenvolver modelos de ameaça para superfícies emergentes em produtos nativos de IA, identificar e analisar riscos em infraestrutura e apps, projetar defesas e criar benchmarks de avaliação.

Do ponto de vista de mercado, a proposta corrige uma lacuna conhecida. Empresas querem IA poderosa, mas exigem governança clara de riscos, privacidade por padrão e evidências de resiliência. A Perplexity já vinha posicionando seus produtos com ênfase em segurança, citando controles de administrador, armazenamento local criptografado no navegador Comet e padrões como SOC 2 no contexto corporativo. O SII institucionaliza, com equipe dedicada, o ciclo pesquisa, engenharia e produto que sustenta essas promessas.

A notícia de lançamento do SII publicada em 1 de abril de 2026 reforça a ambição de avançar segurança e privacidade em IA com colaboração universitária e projetos de avaliação pública. Embora matérias de imprensa secundárias não substituam publicações técnicas detalhadas, o conjunto de sinais, entre anúncio de vagas, linguagem de missão e histórico de segurança no portfólio, indica uma iniciativa com mandato claro e viés de entrega.

Como o SII se conecta a decisões recentes da Perplexity em segurança e confiança

O lançamento não ocorre no vácuo. Em 20 de novembro de 2025, a Perplexity anunciou um acordo de disponibilização ampla no GSA para levar Enterprise Pro for Government a agências federais, com discurso de garantias de segurança por padrão e um caminho acelerado para conformidade. Isso estabelece expectativas elevadas de proteção e auditabilidade. Um instituto dedicado de segurança ajuda a sustentar tecnicamente essa promessa.

No front corporativo, a empresa detalhou que o navegador Comet foi concebido com segurança e privacidade desde o primeiro dia, incluindo histórico e interações armazenados localmente com criptografia, além de controles administrativos. Esse tipo de arquitetura precisa de avaliação e endurecimento contínuos, algo alinhado à agenda do SII para construção de defesas, detecções e métricas reproduzíveis.

A expansão internacional com Enterprise Pro no Japão, via SoftBank, destacou elementos de governança como SOC 2, controles de modelo, retenção de dados restrita e SSO. O SII pode acelerar a convergência entre requisitos regulatórios multinacionais e proteções técnicas consistentes, reduzindo o atrito de adoção em setores regulados.

![Ilustração de cadeados e código, simbolizando segurança em IA]

O que muda para empresas, times de produto e equipes de segurança

Equipes de segurança e engenharia precisam de três coisas quando avaliam plataformas de IA: um modelo de ameaça claro, telemetria acionável e padrões de avaliação reproduzíveis. O SII, pela descrição de responsabilidades, se propõe a entregar exatamente esses pilares, com foco em agentes, busca e navegação, que são superfícies críticas para injeção de conteúdo malicioso, exfiltração de dados e prompt attacks.

  • Modelos de ameaça atualizados. Agentes com ferramentas, navegação e leitura de arquivos expõem interfaces com o mundo real. Modelos de ameaça precisam cobrir encadeamentos de ataque entre fonte web, parser, coletor de evidências, roteadores de modelos e plugins. O SII indica a intenção de formalizar essas análises para domínios como navegador e busca.
  • Padrões e benchmarks. A criação de frameworks de avaliação e datasets de teste permite comparar defesas, orientar correções e acelerar auditorias de terceiros. Para quem opera plataformas multi-modelo, padronizar medição reduz decisões baseadas em intuição e melhora a governança.
  • Transferência para produto. A ligação direta com a engenharia de segurança sugere um ciclo de resposta mais curto, do laboratório para produção, crucial para riscos que evoluem rápido.

Para CISOs e líderes de plataforma, o benefício imediato é previsibilidade. Se a plataforma documenta políticas de retenção, certificações, isolamentos e controles administrativos, e o instituto publica métodos de verificação, auditorias ganham objetividade. Viu-se esse movimento anteriormente no posicionamento do Comet e no pacote Enterprise, que destacam isolamento de dados, controles de modelo e conformidade.

Oportunidades, riscos e como avaliar resultados de um instituto de segurança em IA

Institutos corporativos costumam ser julgados por impacto em três frentes: publicações e recursos abertos, redução quantificável de incidentes e adoção de práticas por clientes.

  • Publicações e recursos. Espera-se que o SII publique benchmarks, avaliações e métodos reprodutíveis que permitam a terceiros testar agentes, navegadores e mecanismos de busca com IA. A menção explícita a construir frameworks e datasets sinaliza essa direção.
  • Métricas de risco. Um indicador útil é a queda na taxa de falhas em avaliações públicas, a redução de incidentes reportados e o tempo médio de correção para vulnerabilidades em componentes como agentes de navegação. Outra proxy, no setor público, é o avanço em programas de conformidade e adoção em órgãos com requisitos rigorosos, tema presente no anúncio do acordo com o GSA.
  • Adoção e governança. O posicionamento de Enterprise Pro, inclusive no Japão via SoftBank, prioriza controles e retenção mínima. Se o SII acelerar padrões de segurança que facilitem due diligence, veremos ciclos de vendas mais curtos em setores regulados.

Riscos existem. Parte da comunidade já apontou, no passado, discussões sobre vulnerabilidades e transparência em produtos como o Comet, inclusive com críticas públicas. Um instituto precisa enfrentar essas críticas com métricas, testes abertos e correções verificáveis, o que reforça a importância de benchmarks e auditorias independentes.

Como líderes podem aplicar hoje lições do SII no seu roadmap de IA

Mesmo antes de resultados publicados, algumas práticas citadas em materiais da Perplexity são aplicáveis em qualquer stack de IA.

  1. Minimização de dados, retenção curta e isolamento por padrão. Enterprise Pro enfatiza que dados de clientes não treinam modelos e que retenção é limitada. Em qualquer fornecedor, exija cláusulas contratuais claras e verifique configurações de retenção, segregação por tenant e criptografia em repouso e em trânsito.
  2. Controles administrativos de modelos e políticas. Ter governança sobre que modelos podem ser usados, quando e por quem, reduz risco de drift e uso indevido. Verifique se há console de administração para ativar, revogar e monitorar modelos, algo que aparece no reforço de segurança do Enterprise Pro.
  3. Armazenamento local com criptografia quando possível. O Comet descreve histórico e interações armazenadas localmente com criptografia. Em ambientes sensíveis, preferir processamento local ou isolado para diminuir superfícies de exposição.
  4. Modelo de ameaça para agentes. Se o seu produto usa agentes com ferramentas, simule cadeias de ataque, teste injeções de conteúdo, valide sanitização e aplique filtragem em múltiplas camadas. O SII destaca esse foco em agentes e navegação, o que deve inspirar avaliações internas.

![Cadeados sobre matriz binária, refletindo defesa em profundidade]

Exemplos práticos que já podem orientar arquitetura segura

  • Pesquisa com web e arquivos. A Perplexity documenta pesquisa entre web e repositórios internos, combinando dados premium e arquivos corporativos. Em arquiteturas de RAG e pesquisa empresarial, isole indexação, crie listas de permissão por espaço e ative auditoria de consultas.
  • Government-grade onboarding. O anúncio de disponibilização pela GSA cita garantias de segurança por padrão e um caminho de conformidade acelerado. Mesmo fora do governo, usar esses requisitos como referência interna ajuda a elevar o nível, por exemplo, pedindo relatórios de pen-test e evidências de controles.
  • Navegação assistida com proteção local. O design do Comet indica enfoque em armazenar dados localmente com criptografia e dar autonomia controlada ao assistente. Para navegadores corporativos com IA, adote proxies de saída, listas de domínios confiáveis e análise estática de conteúdo antes de passar ao modelo.

O que acompanhar nos próximos meses

  • Primeiros artefatos públicos do SII. Benchmarks, datasets e relatórios de avaliação serão o termômetro. A meta é sair de promessas genéricas e entrar em medição objetiva de segurança, com comparabilidade entre defesas.
  • Integração com roadmaps de Enterprise e Governo. Mudanças visíveis em políticas de retenção, controles de modelo e documentação de ameaças indicarão transferência real da pesquisa para produto. Sinais anteriores em Enterprise Pro e no acordo com a GSA sugerem essa direção.
  • Colaborações acadêmicas e publicações. A notícia de lançamento mencionou parcerias universitárias e projetos como um benchmark de navegação segura. Verificar coautorias, venues de topo e reprodutibilidade ajudará a distinguir marketing de rigor científico.

Conclusão

O Secure Intelligence Institute chega em um momento de convergência entre adoção acelerada de IA e exigências crescentes de governança. A Perplexity já vinha sinalizando arquitetura com privacidade por padrão e controles corporativos, em especial no Comet e no Enterprise Pro, incluindo iniciativas com governo e parceiros internacionais. A institucionalização de uma frente dedicada a pesquisa em segurança, privacidade e confiança pode transformar essas promessas em padrões verificáveis, desde que produza métricas abertas e melhorias percebidas no produto.

Para líderes técnicos, o recado é pragmático. Exigir provas, padronizar avaliações e reduzir a distância entre pesquisa e operação é o caminho para implantações responsáveis. Se o SII sustentar a cadência de recursos públicos e endurecimento de superfícies críticas, como agentes e navegação, o setor ganha uma referência útil de como conciliar velocidade com segurança e confiança em IA.

Tags

PerplexityPrivacidade de DadosGovernança de IA