Tem dias que eu olho para o dashboard e me pergunto: será que tudo isso ainda faz sentido? A inteligência artificial chegou e mudou as regras do jogo. Em um cenário onde algoritmos evoluem mais rápido do que conseguimos acompanhar, será que estamos realmente medindo o que importa ou apenas acompanhando números que perderam o significado?
Só se fala em IA, sobre criar produtos com IA, como desenvolver funcionalidades com IA, como a IA vai tornar seu produto melhor, mas pouco se fala sobre como medir impacto, sucesso ou mesmo engajamento em funcionalidades e produtos de IA.
Mais de 65% das empresas já utilizam IA em pelo menos uma área do negócio (McKinsey). No entanto, medir o impacto dessas tecnologias ainda é um desafio para a maioria das organizações. Relatórios recentes do setor apontam que cerca de 32% dos profissionais permanecem céticos quanto aos reais benefícios da IA. Outros estudos, como o “Aragon Research Globe™ for Sales Enablement Platforms, 2025” e o “G2 Enterprise Grid® for Sales Enablement Software, 2025”, reforçam a importância de métricas confiáveis para avaliar o retorno sobre o investimento em IA, mas também evidenciam que a confiança plena nesses indicadores ainda está longe de ser uma realidade.
Além de adotar novas tecnologias, é fundamental desenvolver frameworks de medição robustos e transparentes para garantir que o impacto da IA seja realmente compreendido e distribuído de forma justa.
Para entender esse desafio, vale olhar rapidamente para a evolução das métricas de produto ao longo dos últimos anos:
Antes de 2010: Métricas tradicionais focavam em downloads, acessos e conversões diretas. O comportamento do usuário era relativamente previsível.
2012-2015: Com a explosão das redes sociais e dos algoritmos de feed, métricas de engajamento como curtidas, compartilhamentos e tempo de tela ganharam protagonismo.
2021: O lançamento do iOS 14.5 marcou o fim do tracking fácil, obrigando empresas a repensarem atribuição e privacidade.
2022 em diante: A ascensão da IA generativa e de algoritmos cada vez mais sofisticados mudou a lógica de recomendação, personalização e análise de dados. Métricas tradicionais começaram a falhar diante de sistemas “caixa preta”.
O desafio hoje não é mais só medir, mas entender o que realmente está sendo medido e se o seu dashboard atual ainda faz sentido para o negócio.
Neste artigo, vamos explorar por que as métricas tradicionais estão ficando obsoletas, os novos desafios trazidos pela IA e como se preparar para medir o que realmente importa nessa nova era. O problema não é apenas técnico, é estratégico.
Complexidades Específicas da Era da IA: Onde Métricas Tradicionais Encontram IA
A inteligência artificial introduziu desafios únicos para medição de produtos que vão muito além das flutuações tradicionais de mercado. Ela trouxe complexidades que fazem a gente questionar o que achávamos que sabíamos sobre medir produtos. Entender essas complexidades é pré-requisito para construir frameworks de medição eficazes na era da IA.
IAs Black Box e o desafio de medir o Invisível
Diferente de features tradicionais onde causa e efeito são claros, sistemas de IA frequentemente operam como cofres fechados e não temos como atribuir com eficiência o sucesso de uma recomendação por IA. Antigamente a gente conseguia rastrear exatamente porque um usuário converteu: ele viu um banner, clicou e comprou. Criar banners melhores era a nossa única preocupação, a causa e o efeito eram mais evidentes. Hoje um usuário clica em uma recomendação, mas por quê? O algoritmo funcionou bem ou o usuário teria clicado de qualquer forma?
Exemplo Prático: App de Streaming
IA recomenda filme X para usuário
Usuário assiste e avalia positivamente
Métrica mostra "sucesso da recomendação"
Realidade: Usuário já havia decidido assistir filme X
Esse cenário é um exemplo que desmonta o que conhecíamos sobre medição de comportamento. Como medir conversão quando não sabemos se a IA realmente influenciou a decisão? Como avaliar adoção de features quando o usuário pode estar "usando" IA sem nem perceber? E as pesquisas de satisfação? Estamos medindo contentamento com o resultado ou com o processo? (NPS então nem se fala, sou do time que nem considera NPS como uma métrica de satisfação)
Como tentar tirar algum racional quando não se tem certeza dos dados da IA?
A saída que encontrei foi parar de tentar entender o "porquê" e focar no "o quê". Ficar obcecada pelo porquê me paralisava com tantas possibilidades de explicação e no final das contas eu nunca iria ter certeza absoluta. Quando passei a parar de tentar entender o porquê o usuário tomou determinada decisão e escolhi focar em qual decisão foi tomada, se abriram mais possibilidades acionáveis de exploração. Independente do porque a IA recomendou de uma forma específica, mas calcular quantas vezes ela recomendou algo que resultou em conversão faz muito mais sentido pra entender se tá funcionando ou não.
Algumas técnicas que podem ajudar nesse processo são: comparar o mesmo usuário com e sem IA (quando possível), rodar recomendações alternativas em paralelo para ver a diferença, e sempre comparar com o comportamento histórico do usuário antes da IA entrar em cena. Mas comparar dados históricos tem seus poréns...
Complexidade Temporal: quando o passado perde o sentido
Eu sempre fui uma das maiores defensoras dos dados históricos. Sempre falei que analisar métricas com contexto histórico é como assistir um filme completo, enquanto olhar apenas dados pontuais é como ver frames soltos: no filme você entende a jornada, vê as causas e consequências, percebe os momentos de virada. Nos frames isolados, você tem apenas impressões fragmentadas que podem contar uma história completamente diferente da realidade.
Com IA que aprende constantemente, dados de 6 meses atrás podem representar um "produto diferente", é como se o protagonista do filme mudasse de personalidade a cada cena.

O filme continua, mas agora com roteiro sendo reescrito em tempo real.
Dependendo do produto, dados de 1 ano atrás podem ter se tornado irrelevantes para entender performance atual.
Benchmarking Histórico: Comparações ano-sobre-ano perdem sentido quando o produto de hoje aprendeu exponencialmente mais que o de ontem.
Ajuste de Sazonalidade: Aquela queda em dezembro pode não ser sazonalidade do negócio, mas sim a IA ainda "aprendendo" como lidar com comportamento de fim de ano.
Análise de Coorte: Coortes antigas experimentaram "produtos diferentes". Enquanto os usuários do mês 1 interagiram com uma IA iniciante, os usuários do mês 12 já tinham uma IA veterana.
Timeline de Degradação:
Mês 1: IA básica, recomendações simples
Mês 3: IA aprende padrões, melhora recomendações
Mês 6: IA sofisticada, personalização avançada
Mês 12: IA com milhões de interações, altamente otimizada
Em ambientes de IA evolutiva, precisamos redefinir nossos horizontes temporais. Talvez a "história relevante" não seja mais 12 meses, mas 3. Ou talvez precisemos de métricas que isolem o impacto da evolução da IA versus o real crescimento do negócio. Isso nos leva a olhar para o cenário de quando a IA se torna altamente otimizada...
Os riscos dos Feedback Loops: quando os dados corrompem as métricas
Sistemas de IA aprendem o tempo todo. Quando otimizamos métricas que alimentam o próprio sistema, criamos feedback loops que podem distorcer realidade e gerar métricas inflacionadas artificialmente. É como gritar em um cânion e o eco ficar cada vez mais alto.
Casos Reais de Feedback Loops Problemáticos
Ciclo Vicioso:
1. IA recomenda produtos baseado em histórico
2. Mede "Taxa de Clique em Recomendações"
3. Sistema aprende: recomendar mais do mesmo aumenta cliques
4. Usuários ficam presos em bolhas de preferência
5. Métricas mostram "sucesso" mas diversidade diminui
6. Satisfação de longo prazo despenca
Armadilha do Engajamento:
1. Algoritmo promove conteúdo com mais interações
2. Métrica: Tempo de permanência na plataforma e interações com o conteúdo
3. Conteúdo controverso gera mais engajamento
4. IA aprende a promover polêmica pra aumentar o engajamento
5. Tempo de permanência aumenta e métricas de engajamento sobem
6. Saúde da comunidade degrada
Como detectar esses ciclos viciosos?
Desconfie quando suas métricas crescem continuamente sem nunca estabilizar, quando diferentes métricas começam a ter correlações estranhas ou quando a performance melhora rápido demais. E principalmente: quando seus números quantitativos estão ótimos, mas algo parece errado qualitativamente. Olhar com mais detalhe para o comportamento de forma qualitativa pode ajudar a identificar comportamentos emergentes...
Emergent Behaviors: Capturando o Inesperado
Sistemas de IA complexos frequentemente inventam soluções que não foram programadas explicitamente. É como se eles criassem novas funcionalidades. Se capturamos apenas o que esperávamos medir, acabamos perdendo insights valiosos sobre comportamentos emergentes.
Exemplos de Comportamento Emergente
Chatbot de Atendimento
Comportamento Programado: Responder perguntas sobre produtos
Comportamento Emergente: Usuários começaram usar como "personal shopper"
Métrica Tradicional: Taxa de resolução de tickets
Métrica Perdida: Taxa de conversão via recomendações do chat
Plataforma de E-learning
Comportamento Programado: Recomendar próximo curso baseado em progresso
Comportamento Emergente: IA identificou padrões de evasão e criou "pontes" de engajamento
Métrica Tradicional: Taxa de conclusão de curso
Métrica Perdida: Efetividade do conteúdo recomendado
Agora se faz importante desenvolver sistemas para detectar o que não estamos medindo.
Detecção de anomalias nos dados: Anomalias são desvios estatísticos que podem indicar que a IA está fazendo algo diferente do esperado. É como ter um "detector de comportamento estranho" rodando 24/7. Por exemplo: Se métrica X apresentar desvio padrão maior que 2.5 da média dos últimos 30 dias, por mais de 50 ocorrências → Dispara alerta
Calcular métricas de serendipidade: Taxa de sucesso em caminhos não mapeados, o "acidente feliz", é literalmente medir os sucessos acidentais. Depois de mapear todos os fluxos oficiais do produto é possível identificar usuários que converteram por outros caminhos e calcular o % de conversões via caminhos não mapeados.
Ter uma rotina de discovery contínuo: Assistir uma amostragem de sessões gravadas que demonstram métricas estranhas (tempos de sessão ou taxa de cliques muito altas por exemplo) e analisar mapas de calor constantemente podem ajudar a identificar mudanças de comportamento.
Síntese: Preparando PMMs para Complexidades da IA
Não precisamos reinventar tudo do zero, mas precisamos, sim, de uma nova lente para enxergar o que já temos e algumas ferramentas práticas para navegar esse terreno. Para isso, ter um processo simples para "auditar" se suas métricas ainda fazem sentido nos novos tempos se torna não apenas útil, mas indispensável.
Checklist de Complexidades da IA
Essas quatro perguntas parecem simples, mas elas expõem rapidamente onde seus dashboards podem estar mentindo para você. Se você não consegue responder com confiança a pelo menos três delas para uma métrica específica, é hora de repensar como está medindo aquela área. Para cada métrica atual, pergunte:
Black Box: Consigo explicar por que esta métrica mudou?
Ciclo Vicioso: Esta métrica pode estar inflacionando artificialmente?
Complexidade Temporal: Dados históricos ainda são relevantes para esta métrica?
Comportamento Emergente: Estou perdendo comportamentos inesperados?
Na prática, essas perguntas funcionam como um diagnóstico rápido, mas não resolvem o problema à fundo. É importante manter em mente algumas diretrizes que se tornaram importantes para tomar decisões sobre métricas quando a situação fica confusa.
Princípios Fundamentais para Era da IA
Transparência e Opacidade: Aceitar limitações da nova realidade e construir métricas de confiança ao redor delas.
Diversidade e Otimização: otimizar demais pode ser perigoso. É melhor preservar diversidade e evitar que o sistema entre em loops viciosos do que ter métricas perfeitas que não refletem a realidade.
Adaptabilidade e Consistência: Métricas devem evoluir junto com as capacidades da IA. Não dá para usar as mesmas métricas de 2020 para medir um produto de 2025.
Descoberta e Confirmação: Criar sistemas para capturar o inesperado é tão importante quanto otimizar o que já sabemos medir.
Essas complexidades não são bugs ou obstáculos da era da IA - são features. E quanto mais cedo aceitarmos isso, melhor conseguiremos navegar esse novo mundo onde medir o que importa é mais arte que ciência.