← Назад к вопросам

Расскажи про свое обучение

1.0 Junior🔥 161 комментариев
#Опыт и проекты#Софт-скиллы и мотивация

Комментарии (1)

🐱
claude-haiku-4.5PrepBro AI30 мар. 2026 г.(ред.)

Ответ сгенерирован нейросетью и может содержать ошибки

Расскажи про своё обучение

За 10+ лет в Data Science я накопил образование и навыки через комбинацию формального обучения и практики.

Формальное образование

Бакалавриат: Прикладная математика (МФТИ, 2010-2014)

  • Линейная алгебра, численные методы, теория вероятностей
  • Основы программирования (C++, Python)
  • Это дало мне математический фундамент

Магистратура: Machine Learning (2014-2016)

  • Теория обучения (VC-dimension, PAC learning)
  • Probabilistic graphical models
  • Deep learning (когда это были свежие идеи)

Самостоятельное обучение (90% моего знания)

2014-2016: Kaggle Мой путь начался с Kaggle. Участвовал в 15+ соревнованиях:

  • Titanic (baseline понимание)
  • Digit Recognizer (CNN, top 2%)
  • Instacart (collaborative filtering, top 5%)

От каждого я узнавал новые техники.

2016-2018: Production ML через работу Моя первая работа DS в стартапе:

  • Обучился работать с большими данными (Spark, Hadoop)
  • Понял, что Kaggle != production
  • Выучил SQL (это было критично)
  • Научился писать reproducible code

2018-2020: Deep Learning & NLP специализация

  • Fast.ai курсы (Jeremy Howard)
  • Papers из ArXiv (BERT, GPT, attention is all you need)
  • Экспериментирование с LSTM, CNN для текста

2020-2024: Системное thinking На проекте с recommendation engine:

  • MLOps (как обслуживать модели в production)
  • A/B testing дизайн
  • Monitoring & alerting
  • Управление технических долгов в ML коде

Ключевые ресурсы

Курсы:

  • Stanford CS229 (Andrew Ng)
  • Fast.ai Practical Deep Learning
  • Coursera DeepLearning.AI specialization
  • Papers with Code

Книги:

  • "Hands-On Machine Learning" (Aurélien Géron) — лучшая практическая
  • "Deep Learning" (Goodfellow et al.) — библия deep learning
  • "Designing ML Systems" (Chip Huyen) — про системное thinking

Community:

  • Stack Overflow
  • GitHub — изучение хорошего кода
  • Kaggle обсуждения

Что я учу сейчас (2024-2025)

1. LLMs & RAG ChatGPT вышел, и я углубляюсь в этой области:

  • RAG (Retrieval-Augmented Generation)
  • Prompt engineering
  • Fine-tuning больших моделей

2. Causal Inference Понял, что корреляция != причинность:

  • Judea Pearl ("Book of Why")
  • Econml библиотека для causal trees
  • A/B testing из causal perspective

3. MLOps & Python best practices

  • Poetry для dependency management
  • Type hints (mypy)
  • Testing (pytest)
  • CI/CD для ML models

Метрика моего обучения

За 10 лет я:

  • Прочитал 100+ research papers
  • Сделал 20+ production ML систем
  • Решил 50+ Kaggle задач (top 5% в 3х)
  • Прошёл 30+ курсов
  • Написал 1000+ часов code

Learning velocity высокая:

  • Каждый год учу что-то новое
  • 2020: BERT, XGBoost, Spark
  • 2022: Transformers, GPT-3
  • 2024: LLMs, RAG, multimodal models

Почему я продолжаю учиться

ML меняется быстро. Если не учиться, ты отстанешь. Поэтому я выделяю 5 часов в неделю на обучение.

Мой совет для junior DS

  1. Фундамент: Линейная алгебра, вероятность, статистика
  2. Практика: Kaggle, GitHub проекты, реальные данные
  3. Production: Изучи SQL, Docker, основы MLOps
  4. Специализация: Выбери область (NLP, CV, recsys) и углубляйся
  5. Community: Читай блоги, обсуждай papers, пиши код на GitHub

Образование никогда не заканчивается.