LRU Cache
Условие
Реализуйте LRU (Least Recently Used) кэш с методами:
- get(key) — получить значение по ключу
- put(key, value) — добавить/обновить значение
При превышении ёмкости удаляется наименее недавно использованный элемент.
Пример
cache = LRUCache(2) cache.put(1, 1) cache.put(2, 2) cache.get(1) → 1 cache.put(3, 3) # удаляет ключ 2 cache.get(2) → -1 (не найден)
Комментарии (1)
Ответ сгенерирован нейросетью и может содержать ошибки
LRU Cache: Реализация и объяснение
Что такое LRU Cache?
LRU Cache (Least Recently Used Cache) — это структура данных с ограниченной ёмкостью, которая хранит пары "ключ-значение" и автоматически удаляет наименее недавно использованный элемент при переполнении. Это критично для оптимизации памяти и производительности в системах кэширования.
Почему важна эффективная реализация?
Типичная задача в production: кэш активных пользовательских сессий, результаты дорогостоящих вычислений или часто запрашиваемые данные из БД. Неэффективная реализация приведёт к O(n) операциям и деградации производительности.
Решение с OrderedDict (простое, практичное)
from collections import OrderedDict
class LRUCache:
def __init__(self, capacity: int):
self.capacity = capacity
self.cache = OrderedDict()
def get(self, key: int) -> int:
if key not in self.cache:
return -1
# Переместить в конец (свежий доступ)
self.cache.move_to_end(key)
return self.cache[key]
def put(self, key: int, value: int) -> None:
if key in self.cache:
# Обновить существующий ключ
self.cache[key] = value
self.cache.move_to_end(key)
else:
# Добавить новый ключ
self.cache[key] = value
if len(self.cache) > self.capacity:
# Удалить первый (самый старый)
self.cache.popitem(last=False)
Временная сложность: O(1) для get и put. Пространственная сложность: O(capacity).
Решение с Dict + DoublyLinkedList (более гибкое)
Если нужна полная контроль, используй двусвязный список + словарь:
class Node:
def __init__(self, key: int, value: int):
self.key = key
self.value = value
self.prev = None
self.next = None
class LRUCache:
def __init__(self, capacity: int):
self.capacity = capacity
self.cache = {} # key -> Node
self.head = Node(0, 0) # dummy узел (начало списка)
self.tail = Node(0, 0) # dummy узел (конец списка)
self.head.next = self.tail
self.tail.prev = self.head
def _add_node(self, node: Node) -> None:
"""Добавить узел после head (самый свежий)"""
node.prev = self.head
node.next = self.head.next
self.head.next.prev = node
self.head.next = node
def _remove_node(self, node: Node) -> None:
"""Удалить узел из списка"""
prev_node = node.prev
next_node = node.next
prev_node.next = next_node
next_node.prev = prev_node
def _move_to_head(self, node: Node) -> None:
"""Переместить узел в начало (свежий доступ)"""
self._remove_node(node)
self._add_node(node)
def get(self, key: int) -> int:
if key not in self.cache:
return -1
node = self.cache[key]
self._move_to_head(node)
return node.value
def put(self, key: int, value: int) -> None:
if key in self.cache:
node = self.cache[key]
node.value = value
self._move_to_head(node)
else:
new_node = Node(key, value)
self.cache[key] = new_node
self._add_node(new_node)
if len(self.cache) > self.capacity:
# Удалить самый старый (перед tail)
oldest = self.tail.prev
self._remove_node(oldest)
del self.cache[oldest.key]
Пример использования
cache = LRUCache(2)
cache.put(1, 1) # cache: {1: 1}
cache.put(2, 2) # cache: {1: 1, 2: 2}
print(cache.get(1)) # 1, порядок: {2, 1}
cache.put(3, 3) # удаляет 2, cache: {1: 1, 3: 3}
print(cache.get(2)) # -1 (не найден)
cache.put(4, 4) # удаляет 1, cache: {3: 3, 4: 4}
print(cache.get(1)) # -1 (не найден)
print(cache.get(3)) # 3
print(cache.get(4)) # 4
Ключевые различия подходов
| Аспект | OrderedDict | DoublyLinkedList |
|---|---|---|
| Сложность кода | Простая | Сложнее |
| Производительность | O(1) | O(1) |
| Гибкость | Ограничена | Полная контроль |
| Python-way | ✓ Идиоматично | Низкоуровневое |
Рекомендация: В production используй OrderedDict — он оптимизирован на C и проще в поддержке. Версию с DoublyLinkedList применяй для интервью (показывает понимание структур данных) или когда нужна максимальная гибкость.