Комментарии (1)
Ответ сгенерирован нейросетью и может содержать ошибки
Типы нейронных сетей
1. Полносвязная (Dense/Fully Connected)
model = tf.keras.Sequential([
tf.keras.layers.Dense(128, activation="relu"),
tf.keras.layers.Dense(10, activation="softmax")
])
Применение: табличные данные, классификация.
2. Сверточная (CNN)
model = tf.keras.Sequential([
tf.keras.layers.Conv2D(32, (3, 3), activation="relu"),
tf.keras.layers.MaxPooling2D((2, 2)),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(10, activation="softmax")
])
Применение: классификация изображений, компьютерное зрение.
3. Рекуррентная (RNN)
model = tf.keras.Sequential([
tf.keras.layers.SimpleRNN(128, activation="relu"),
tf.keras.layers.Dense(10, activation="softmax")
])
Применение: последовательности, временные ряды.
4. LSTM (Long Short-Term Memory)
model = tf.keras.Sequential([
tf.keras.layers.LSTM(128, activation="relu"),
tf.keras.layers.Dense(10, activation="softmax")
])
Применение: долгосрочные зависимости, NLP, временные ряды.
5. GRU (Gated Recurrent Unit)
Упрощенная LSTM с меньшим количеством параметров.
6. Автокодировщик (Autoencoder)
Энкодер сжимает данные, декодер восстанавливает.
Применение: сжатие, аномалия детектирование.
7. Трансформер (Transformer)
Использует механизм Attention.
from tensorflow.keras.layers import MultiHeadAttention
x = MultiHeadAttention(num_heads=8)(x, x)
Применение: BERT, GPT, T5, современный NLP.
8. GAN (Generative Adversarial Network)
Генератор vs Дискриминатор.
Применение: генерирование изображений, синтез лиц.
9. VAE (Variational Autoencoder)
Автокодировщик с вероятностным латентным пространством.
Применение: генерирование, обучение распределениям.
10. ResNet (Residual Network)
Iспользует skip connections для обучения очень глубоких сетей.
Применение: глубокие архитектуры, классификация изображений.
Сравнение
| Тип | Данные | Применение |
|---|---|---|
| Dense | Вектор | Табличные |
| CNN | Изображение | Компьютерное зрение |
| LSTM | Последовательность | NLP, временные ряды |
| Трансформер | Последовательность | Современный NLP |
| GAN | Шум | Генерирование |
Заключение
Разные архитектуры оптимизированы для разных типов данных. Выбор правильной архитектуры зависит от задачи и типа входных данных.