Elevata
Venture Capital Brasileira: Assistente de IA na AWS acelera decisões

Case

Venture Capital Brasileira: Assistente de IA na AWS acelera decisões

5 de novembro de 2025Venture Capital Brasil

Sobre a Empresa

Um fundo de venture capital cujo time de investimentos depende de acesso rápido a contexto interno de alta qualidade — histórico de deals, discussões entre sócios, notas de reuniões e atualizações contínuas do portfólio — para tomar decisões e avançar oportunidades com agilidade.

Como acontece com a maioria dos times de VC, a operação do fundo se apoia em múltiplas ferramentas, como chat, documentos e CRM. O desafio não era a falta de informação, mas sim o excesso dela, distribuída entre diferentes sistemas, difícil de recuperar rapidamente e complicada de validar sob pressão — especialmente considerando que o acesso a dados sensíveis de deals precisa ser rigorosamente controlado.

Os Desafios

O time de investimentos precisava de uma forma confiável de buscar e sintetizar conhecimento interno sem precisar alternar entre ferramentas ou depender de fluxos informais do tipo “perguntar para alguém”.

Informações críticas estavam espalhadas por threads do Slack, páginas do Notion, documentos no Google Drive e registros no Affinity CRM. Essa fragmentação dificultava a construção de uma fonte única de verdade sobre histórico de deals e referências, além de adicionar latência ao processo de tomada de decisão no dia a dia.

Antes do projeto, encontrar o contexto certo para responder a uma única pergunta levava, em média, entre 8 e 10 minutos. O tempo gasto era apenas parte do problema. Controle de acesso era igualmente crítico: o fundo precisava de uma solução capaz de entregar respostas rápidas sem violar permissões, garantindo que a recuperação de informações e as respostas fossem sempre baseadas apenas nos documentos que cada usuário estava autorizado a visualizar, em conformidade com as políticas de segurança e privacidade.

A Solução

A Elevata desenhou e implementou um assistente de conhecimento baseado em GenAI, operando diretamente dentro do Slack e capaz de recuperar contexto confiável e sensível a permissões a partir dos sistemas internos do fundo.

Em vez de treinar um modelo com os dados do fundo, a solução foi construída com uma abordagem de Retrieval Augmented Generation (RAG). Nesse modelo, o assistente recupera conteúdos internos relevantes no momento da consulta e utiliza esse contexto para gerar a resposta, mantendo os dados sob controle e evitando exposição indevida.

Decisões de arquitetura e seleção de modelos

A Elevata iniciou o projeto avaliando diferentes foundation models disponíveis via Amazon Bedrock e SageMaker JumpStart. O objetivo não era apenas qualidade de geração, mas também segurança de deploy e compatibilidade com uma arquitetura RAG capaz de aplicar controle de acesso no momento da recuperação dos dados.

Os critérios de avaliação incluíram fluência de linguagem e qualidade de sumarização, capacidade de ancorar respostas em bases de conhecimento corporativas, facilidade de integração com o stack do fundo e suporte a busca vetorial escalável com controle de acesso em nível de documento.

A arquitetura final combinou:

  • Amazon Bedrock para geração das respostas

  • Amazon OpenSearch Service para busca vetorial e recuperação de dados

  • Controle de acesso baseado em papéis (RBAC) no OpenSearch, aplicado durante a recuperação, garantindo que os resultados sejam filtrados por usuário antes mesmo de chegar ao modelo

  • Embeddings gerados com Cohere, armazenados em índices k-NN no OpenSearch para suportar busca semântica em tempo real

Essa arquitetura garantiu respostas de alta qualidade, sempre ancoradas em fontes internas confiáveis e alinhadas ao modelo de permissões do fundo.

Construção da camada de conhecimento via retrieval (e não treinamento)

Em vez de realizar fine-tuning de um LLM, a Elevata estruturou o conhecimento do fundo como um dataset indexado e utilizou retrieval para fornecer contexto em tempo de execução. O conteúdo indexado incluiu notas de reuniões, memos de investimento, threads do Slack e atualizações para investidores.

Os documentos foram enriquecidos com metadados — como autor, tags, times, data de criação e permissões — permitindo que a recuperação fosse filtrada de forma precisa, não apenas por similaridade semântica, mas também por escopo e acesso.

Ingestão de dados e integrações com a plataforma

Para conectar os sistemas do fundo em uma base de conhecimento utilizável, a Elevata implementou pipelines de ingestão usando Airbyte e AWS Lambda. Esses pipelines coletaram dados de:

  • Slack (canais e threads)

  • Notion (páginas e blocos)

  • Google Drive (documentos e planilhas)

  • Affinity CRM (deals e contexto do pipeline)

Cada fonte foi normalizada e indexada no OpenSearch, com metadados preservando a origem e melhorando a filtragem durante a recuperação.

Fluxo de recuperação e resposta no Slack

Em tempo de execução, o assistente segue um fluxo claro e sensível a permissões:

  1. O usuário faz uma pergunta em linguagem natural no Slack.

  2. O assistente autentica o usuário via AWS Cognito (autenticação baseada em JWT).

  3. O sistema executa uma busca vetorial semântica no OpenSearch, aplicando filtros de RBAC para garantir que apenas documentos autorizados sejam recuperados.

  4. Os trechos selecionados são enviados a um modelo no Amazon Bedrock, que gera uma resposta coerente, personalizada para a pergunta do usuário e baseada exclusivamente no contexto interno recuperado.

Esse fluxo permitiu que o time fizesse uma única pergunta e recebesse uma resposta que combina informações de múltiplas fontes — por exemplo, sintetizando uma discussão no Slack, um memo de investimento no Notion e o status mais recente de um deal no Affinity — sem alternar entre ferramentas ou montar manualmente a narrativa.

Iteração e testes

A Elevata conduziu duas rodadas de testes de aceitação com sócios e analistas do fundo. Os testes focaram em precisão, latência e tratamento de casos extremos. Após cada rodada, os templates de prompt e os filtros de recuperação foram refinados para aumentar a taxa de resolução na primeira resposta e reduzir falsos positivos na recuperação de conteúdo.

Os Resultados

O assistente reduziu significativamente o atrito operacional associado ao trabalho de conhecimento interno do fundo, centralizando busca e síntese em uma única experiência dentro do Slack, sem abrir mão de controles rigorosos de acesso por usuário.

Após o deploy, o fundo observou ganhos mensuráveis:

  • ~80% de redução no tempo gasto buscando contexto, acelerando operações diárias de investimento

  • Latência média abaixo de 2 segundos por consulta, permitindo iteração rápida em conversas no Slack

  • 93% de acurácia de entendimento e 88% de coerência nas respostas, segundo avaliação interna

  • 85% de resolução na primeira resposta, reduzindo a necessidade de buscas adicionais

  • Mais de 90% de uso semanal do time em três semanas, indicando alta adoção entre sócios e analistas

Além de velocidade e usabilidade, a solução fortaleceu a cultura de documentação interna ao melhorar a rastreabilidade. Como o assistente sempre recupera informações a partir de fontes indexadas com metadados, os usuários conseguem relacionar respostas diretamente aos documentos e discussões de origem.

Próximo passo

Vamos Projetar Seu Próximo Caso de Sucesso

Mostramos como aplicar cloud, dados e IA com governança para gerar impacto mensurável no negócio.

Entre em contato