Em um mundo repleto de textos genéricos sobre Inteligência Artificial, eu tenho sentido não só vontade, mas necessidade, de voltar a escrever e compartilhar conhecimento real. Afinal, o que seria mais humano do que isso?
Durante o último ano eu pausei as mentorias. Estava morando em outro país e, naquele momento, quem buscava mentoria era eu. Agora, de volta ao Brasil, decidi retomar esses encontros começando do jeito que mais faz sentido para mim: compartilhando, com o aval dos mentorados, alguns relatos que possam inspirar outras pessoas.
Este é um deles. É a história da Camila, nome fictício para preservar sua identidade, e do dia em que uma cobrança comum em T&D revelou um problema muito maior do que mensuração.
Quando a cobrança chega na pessoa errada
A Camila me procurou logo depois de um evento ao vivo que fiz sobre como medir resultados de programas de treinamento e desenvolvimento para além do modo usual.
Ela chegou à primeira sessão com uma mistura muito particular de euforia e necessidade. De um lado, estava orgulhosa porque tinha aberto novos horizontes e começado a estudar modelos, frameworks e possibilidades de avaliação. Do outro, estava exausta, como alguém que nadava em mar aberto enquanto tentava manter a mão para fora d'água pedindo resgate.
O motivo era um programa de educação executiva que a empresa tinha acabado de rodar: caro, fornecedor de prestígio, dias em um resort bacana, carga horária generosa, público sênior. O tipo de iniciativa que rende foto bonita no LinkedIn e aplauso em reunião de diretoria.
As avaliações de reação tinham sido ótimas. Todo mundo participou. E depois disso, nada.
Meses mais tarde veio a pergunta que sempre vem: qual foi o retorno desse investimento? E adivinha para quem ela desceu? Para a Camila, profissional de T&D.
O programa tinha acontecido. O desenho de impacto, não.
Quando a Camila chegou na mentoria, ela já tinha tentado de tudo. Estava estudando ROI de treinamento, modelos de avaliação, formas de montar indicadores retroativos e dashboards que tentavam provar algo que o programa nunca tinha sido desenhado para provar.
Ela percebeu, com muita lucidez, o que realmente estava acontecendo: não havia indicadores definidos antes, não existia linha de base, não havia comportamento-alvo claro, nem nada que conectasse a experiência de aprendizagem a uma mudança observável no trabalho.
Era um programa conteudista, expositivo, sem mecanismo de transferência, sem acompanhamento pós-programa e sem qualquer acordo prévio com a liderança sobre o que significaria sucesso.
Se nem quem participou consegue te dizer o que mudou, nenhum dashboard vai inventar essa resposta.
E agora queriam que ela provasse valor.
A primeira tentativa: arqueologia de impacto
Nossa primeira sessão foi no estilo: vamos ver o que ainda dá para fazer aqui.
Eu orientei a Camila a montar o que chamo de arqueologia de impacto: uma tentativa de recuperar evidência de valor depois que o programa já aconteceu. Não é o ideal, porque o ideal seria ter definido isso antes. Mas, quando a realidade chega torta, a gente trabalha com o que tem.
O plano era simples e trabalhoso ao mesmo tempo. Primeiro, mapear as competências que o programa supostamente desenvolvia e cruzar isso com indicadores de negócio já existentes na empresa. Depois, desenhar um roteiro de entrevistas com participantes e gestores diretos, com perguntas sobre mudança de comportamento no trabalho, não sobre satisfação ou lembrança de conteúdo. Por fim, estruturar as respostas com âncoras comportamentais simples, como “sem mudança”, “mudança pontual” e “mudança sustentada”, para transformar percepção em dado utilizável.
A ideia era construir uma narrativa baseada em evidência qualitativa, porque evidência quantitativa, naquele momento, já era quase impossível.
O que o caso da Camila deixou evidente
- O programa não tinha indicadores, linha de base ou definição prévia de sucesso
- A única evidência estruturada disponível era avaliação de reação
- Qualquer mensuração posterior dependeria de evidência qualitativa bem conduzida
- O problema central estava mais no design do programa do que na capacidade técnica da Camila
- A liderança precisaria entrar na conversa como fonte de evidência, não só como cobradora
Quando o método parou e a política começou
A Camila ficou de voltar comigo. E, quando voltou, não foi com os dados que esperávamos. A liderança imediata dela não queria seguir com o plano. Achou trabalhoso demais.
Bom, acontece. Tem gente que faz a casa começando pelo telhado e, quando alguém quer colocar fundação, ela acha mais fácil investir na decoração.
Naquela semana eu estava em Shanghai, vivendo minha primeira experiência na China. E percebi rápido que, se não iríamos pelo método, teríamos que ir pela política.
Foi aí que eu perguntei: sua chefe participou do programa?
A resposta foi sim.
Então veio a orientação que virou o centro desse relato: pergunta pra sua liderança. Pergunta que valor ela enxerga que foi gerado. Pergunta o que mudou na forma como ela lidera depois do programa. Pergunta que decisão ela tomou diferente por causa do que aprendeu.
Óbvio que não era para fazer isso de qualquer jeito. A estratégia que construímos foi organizar um workshop curto com as lideranças de RH, não para apresentar resultados, mas para coletar resultados. Uma sessão facilitada com uma pergunta central: o que vocês observaram de diferente nos executivos que passaram pelo programa? E também: o que vocês aprenderam e aplicaram que conseguimos conectar com resultados reais?
A partir dessas respostas, a Camila poderia montar um mapa de percepções: onde houve mudança visível, onde não houve, e por quê. E esse mapa serviria de base para uma segunda rodada com as próprias lideranças participantes, agora numa conversa estruturada sobre valor percebido e lacunas.
A sacada era simples: em vez de chegar com um relatório tentando provar valor, ela criaria um espaço onde a própria liderança revelaria, ou não, esse valor. E a ausência de respostas concretas seria, por si só, o diagnóstico mais poderoso que ela poderia entregar.
Por que isso dói tanto?
Essa orientação parece óbvia, mas quase ninguém faz. E tem um motivo: perguntar para a liderança que valor o programa gerou é, na prática, testar se o programa gerou valor de verdade. E muita gente tem medo da resposta.
O mercado de T&D tem uma obsessão por mensuração, mas a verdade é que a maioria das organizações só mede uma coisa: se as pessoas gostaram. O velho formulário de satisfação logo após o evento. O facilitador foi bom? O conteúdo foi relevante? De 1 a 10, qual sua nota?
Isso não mede aprendizado. Isso mede hospitalidade.
E o mais desconfortável é que a literatura já mostrou mais de uma vez que satisfação e aprendizado nem sempre andam na mesma direção. Formatos mais desafiadores, menos confortáveis e mais exigentes podem gerar mais retenção e mais mudança de comportamento do que experiências fluidas e agradáveis que recebem nota 10 porque ninguém saiu desconcertado.
Quando a única métrica é satisfação, você está otimizando para aplauso, não para resultado.
O problema real não era mensuração. Era design.
Aqui está o ponto que precisei dizer para a Camila, e que talvez você também precise ouvir: o problema não era que ela não sabia mensurar. O problema era que o programa não tinha sido feito para ser mensurado.
Ninguém sentou com a liderança antes para perguntar que problema de negócio aquele programa precisava resolver. Ninguém definiu que comportamento deveria mudar quando os executivos voltassem para o trabalho. Ninguém estabeleceu linha de base. Ninguém desenhou mecanismos de transferência, como prática, acompanhamento, reforço gerencial e aplicação no contexto real.
O programa foi desenhado como experiência. E experiência, por si só, não é aprendizado. Aprendizado que não se traduz em mudança de comportamento no trabalho não é desenvolvimento. Muitas vezes, é só entretenimento corporativo de luxo.
A pesquisa em transferência de aprendizagem é bastante clara sobre isso. Baldwin e Ford, referência clássica na área, mostram que a transferência depende do alinhamento entre características do aprendiz, design do treinamento e ambiente de trabalho. Sem suporte do gestor, oportunidade de aplicação e reforço no contexto real, o conteúdo evapora.
O que deveria ter acontecido antes
Se eu pudesse voltar no tempo com a Camila, o programa teria começado com uma conversa completamente diferente. Antes de contratar fornecedor, antes de definir agenda, antes de aprovar a experiência, alguém precisaria ter sentado com os sponsors e feito perguntas muito mais estratégicas.
- Que problema de negócio esse programa precisa resolver?
- Que comportamento precisa mudar para esse problema melhorar?
- Como vamos saber se isso mudou?
- Que indicadores já existem e o que eles mostram hoje?
- Qual será o papel da liderança depois do programa para sustentar a transferência?
Se essas perguntas tivessem acontecido no dia zero, a mensuração seria consequência natural. Não um exercício desesperado de arqueologia retroativa.
A provocação que fica
Se a liderança da sua empresa investiu alto em um programa de desenvolvimento e agora está cobrando resultados de você, profissional de T&D, talvez a pergunta que ninguém quer fazer seja justamente a mais importante:
Você participou. O que mudou? O que você aprendeu e aplicou?
Se a resposta vier vaga, genérica ou inexistente, o problema não é a sua capacidade de mensurar. O problema é que o programa não foi desenhado para gerar o que agora estão cobrando.
E a boa notícia é que isso tem solução. A ciência da aprendizagem já nos deu os princípios: transferência, alinhamento com resultado de negócio, definição prévia de indicadores e liderança como parte ativa do processo. O passo mais difícil é parar de aceitar a premissa errada.
Na próxima vez que alguém pedir para você mensurar um programa que nunca foi desenhado para ser mensurado, lembre: a resposta mais honesta pode começar com uma pergunta.
Pergunta pra quem participou. Pergunta pra quem aprovou. Pergunta pra quem deveria ter mudado.
Se ninguém consegue dizer o que mudou, nenhuma planilha vai resolver.
Camila é um nome fictício para preservar a identidade da mentorada. O relato foi publicado com a aprovação dela.
Quer aprofundar essa conversa?
Esse relato também está publicado no Substack. E, se você quiser redesenhar programas para gerar impacto mensurável de verdade, a mentoria pode ser o próximo passo.