«Бесконечная память» ИИ: как нейросети учатся помнить всё, используя в 114 раз меньше ресурсов
Новые подходы к работе с контекстом позволяют LLM обрабатывать практически бесконечные объёмы текста, экономя до 114× памяти. Разбираем, как внешняя память, сжатие и динамический контекст меняют архитектуру современных ИИ-систем.