← Назад к вопросам

Как оценивал свой результат?

2.0 Middle🔥 141 комментариев
#Бизнес и стратегия

Комментарии (1)

🐱
claude-haiku-4.5PrepBro AI28 мар. 2026 г.(ред.)

Ответ сгенерирован нейросетью и может содержать ошибки

Как оценивал свой результат?

Оценка результатов Product Manager'а — это не просто сделал или не сделал. Это комплексный процесс, где я смотрю на множество параметров и постоянно учусь. Расскажу про мой approach.

Основной принцип: metrics over gut feeling

Я не полагаюсь на интуицию. Всё, что я сделал, должно быть измеримо. Если не можешь измерить результат, это не результат.

Фреймворк оценки результатов

1. Бизнес-метрики (что дало деньги?)

MRR/ARR (Monthly/Annual Recurring Revenue):

  • Начало года: $100k/месяц
  • Конец года: $180k/месяц
  • Результат: +80% прирост

Это главная метрика. Если MRR растёт, всё остальное встаёт на место.

ARPU (Average Revenue Per User):

  • Было: $20/месяц
  • Стало: $28/месяц
  • Результат: +40%

Я улучшал монетизацию (добавил новые фичи в платные планы), и это сработало.

Churn Rate:

  • Было: 8% в месяц
  • Стало: 5% в месяц
  • Результат: удержание улучшилось на 37.5%

Это значит, что фичи, которые я добавил, действительно нужны людям.

CAC (Customer Acquisition Cost):

  • Было: $150
  • Стало: $120
  • Результат: -20%

Я оптимизировал onboarding, и это дешевле привлекать новых пользователей (меньше bounce rate, больше activation).

LTV:CAC ratio:

  • Было: 3:1
  • Стало: 4.5:1
  • Результат: +50% здоровья модели

Это значит, что бизнес более прибыльный.

2. Продакт-метрики (нравится ли людям?)

DAU/MAU (Daily/Monthly Active Users):

  • Было: 30% (люди используют редко)
  • Стало: 50% (люди используют часто)
  • Результат: +67% вовлечённость

Это показывает, что продукт стал более sticky (привлекательный).

7-day Retention:

  • Было: 45%
  • Стало: 62%
  • Результат: +37.8%

Каждая новая когорта лучше удерживается. Это значит, что первый опыт улучшился.

NPS (Net Promoter Score):

  • Было: 35 (нейтрально)
  • Стало: 52 (хорошо)
  • Результат: +17 баллов

Люди начали рекомендовать продукт друзьям.

Feature Adoption:

  • Новая фича Экспорт данных: 35% активных пользователей её использует
  • Я ожидал 50%, значит эта фича не настолько нужна, как казалась
  • Вывод: нужно либо улучшить UX, либо отложить развитие

3. Качественные метрики (что люди говорят?)

Я регулярно проводил user interviews и customer surveys:

Из интервью узнал:

  • Люди просили интеграцию с Excel (3 из 10 интервью)
  • Это подтвердило, что экспорт — это реальная боль
  • Но 7 из 10 не проблема — значит, это не критично для roadmap

NPS feedback:

  • Detractors (не рекомендуют): Интеграция сложная, настройка занимает час
  • Passives (нейтральны): Хорошо, но нет отличительных фич
  • Promoters (рекомендуют): Лучше всех на рынке, спасибо за support

Это помогло приоритизировать: нужно упростить onboarding и улучшить support.

Customer Churn interviews:

  • Я позвонил 5 уходящим клиентам и спросил почему?
  • 3 ушли из-за компетитора с лучшим API
  • 2 ушли, потому что сменили стратегию (не мой баг)
  • Вывод: нужно улучшить API, это real pain point

4. Процессные метрики (я улучшился как PM?)

Скорость доставки:

  • Было: доставка фич занимала 8 недель в среднем
  • Стало: 4 недели
  • Результат: -50% lead time

Я улучшил процесс (меньше совещаний, яснее требования, больше параллельной работы).

Точность прогноза:

  • Было: 40% фич доставлялись в срок
  • Стало: 75% фич доставлялись в срок
  • Результат: оценка стала намного точнее

Я лучше работаю с командой, лучше понимаю сложность.

Качество решений:

  • Я отменил 3 фичи из 15 запланированных (20%)
  • Обычно это 30-40%, значит я лучше приоритизирую
  • Результат: меньше работы, больше ROI

Team retention:

  • Было: 2 человека ушли в год (15% чёрна)
  • Стало: все остаются
  • Результат: улучшилась культура, люди счастливы

5. Комплексная оценка (OKR's)

Я устанавливаю Objectives and Key Results на каждый квартал. Например:

Q3 OKR:

  • Objective: Стать лидером по retention в индустрии
  • Key Results:
    • 90-day retention: с 35% → 50% ✓ (достигнута 52%)
    • NPS: с 35 → 45+ ✓ (достигнута 52)
    • DAU/MAU: с 30% → 45%+ ✓ (достигнута 50%)

Результат: 3/3 KR достигнуто = квартал успешен

Как я оцениваю каждую фичу отдельно

После доставки каждой фичи я смотрю:

1. Была ли гипотеза правильной?

  • Я предсказывал: Экспорт в CSV увеличит retention на 5%
  • Реальность: +2.3%
  • Вывод: гипотеза была частично правильной, но влияние меньше

2. Сколько времени/денег потратили?

  • Planned: 2 недели, $5k (2 разработчика × $2.5k)
  • Actual: 3 недели, $7.5k (был оверан на 50%)
  • Вывод: нужно лучше оценивать сложность

3. Стоит ли ROI затраты?

  • 2.3% прирост retention × $180k MRR = +$4.1k в месяц
  • Затраты: $7.5k (one-time)
  • Payback period: 1.8 месяца
  • Вывод: ROI хороший (окупилась за 2 месяца)

4. Что я узнал?

  • Люди экспортируют примерно 1 раз в 2 недели (usage pattern)
  • 80% экспортируют на CSV, 20% на JSON
  • Это info для следующих фич (может быть, нужны другие форматы)

Инструменты для оценки

Я использую:

  • Amplitude — когорты, retention, feature adoption
  • Mixpanel — user journeys, funnel analysis
  • Google Analytics — traffic, top pages, bounce rate
  • Stripe — финансовые метрики (MRR, churn, ARPU)
  • Tableau/Metabase — кастомные дашборды
  • Typeform — опросы для NPS и feedback

Когда результаты плохие

Важная часть оценки — честно признавать неудачи:

Пример неудачи: Я запустил Рекомендации фичу (AI, которая предлагает пользователю что-то), думал это будет хит.

  • Ожидание: +10% прирост engagement
  • Реальность: +0.2% (практически ноль)
  • Почему: Рекомендации были неправильные, люди их игнорировали

Что я сделал:

  1. Признал неудачу (не скрывал)
  2. Проанализировал (провел user interviews)
  3. Понял, что нужна другая модель ML
  4. Отложил фичу на следующий квартал
  5. Извлёк урок: ML фичи требуют много итераций

Красные флаги (когда результаты плохие)

  1. Метрики растут, но люди уходят → Может быть, я оптимизирую не то
  2. Один человек толкает все метрики → Это не масштабируется
  3. Метрики сбились с реальностью → Нужно перепроверить данные
  4. Я не понимаю, почему результат такой → Недостаточно анализа

Финальный подход

Я оцениваю результаты честно и систематично:

  • Каждую неделю: метрики в Slack (dashboard)
  • Каждый месяц: retro на團том (что прошло хорошо, что плохо)
  • Каждый квартал: OKR review (попадали ли в цель)
  • Каждый год: 360 feedback (что думают обо мне team, customer, boss)

Главное правило: Результаты — это не про ego. Это про то, помогаю ли я компании и людям. Если нет — я неудачник, даже если звучу правильно.

Как оценивал свой результат? | PrepBro