LLM и AI-агенты: как на самом деле устроен современный искусственный интеллект

15.12.2025
AI сегодня внедряют почти все, но по-настоящему работающих продуктов по-прежнему единицы. Почему так происходит? Разбираемся вместе с первым экспертом нового сезона Lucky Hunter School – Алексом Мартыновым.
Алекс – Fractional CTO и AI/ML-исследователь с 20-летним опытом. Он строил нейросети и распределённые системы задолго до того, как это стало мейнстримом.

В статье разберем, как на самом деле устроены большие языковые модели (LLM), какие архитектурные решения стоят за их развитием и как из отдельных моделей собирается полноценный AI-стек для реальных продуктов.
В конце статьи – небольшой тест для самопроверки, который поможет закрепить материал.

От человеческого мозга к искусственному нейрону

Чтобы понять современные LLM, полезно начать с их биологического прототипа – человеческого мозга. При этом важно сразу развеять одну иллюзию: ни мозг, ни нейросеть не состоят из "умных" элементов.

Отдельный нейрон, биологический или искусственный, предельно прост. Он не рассуждает, не понимает смысл и не принимает решений. Интеллект возникает не на уровне элемента, а на уровне взаимодействия огромного количества таких элементов.

Биологический нейрон и синапсы

Биологический нейрон — это живая клетка, задача которой сводится к обработке входящих сигналов "Х". Он получает импульсы от других нейронов через синапсы. Эти импульсы бывают возбуждающими и тормозящими, а сами синапсы работают как регуляторы силы сигнала: что-то усиливают, что-то ослабляют.

Если сумма входных сигналов превышает определенный порог, нейрон активируется и передает импульс дальше. В одиночку это примитивный механизм. Но когда таких нейронов десятки миллиардов, а связей между ними – сотни триллионов, возникает система, способная к обучению, абстракции и адаптивному поведению.

Искусственный нейрон

Искусственный нейрон – это упрощенная математическая модель биологического нейрона. Его задача – элементарная обработка сигналов.

Нейрон принимает набор входящих сигналов x. Каждому из них назначается вес, который отражает важность этого сигнала. Затем нейрон вычисляет взвешенную сумму входов и сравнивает результат с пороговым значением:
  • Если итоговое значение превышает порог, нейрон активируется и передает сигнал дальше.
  • Если нет – он остается неактивным.
Этот механизм напрямую отражает принцип "все или ничего": нейрон либо срабатывает, либо нет.

Мозг как условная human LLM

Если использовать ML-терминологию, человеческий мозг можно условно представить как гигантскую модель с более чем 80 миллиардами нейронов и сотнями триллионов связей – параметров.

Однако здесь проходит принципиальная разница. Мозг обучается не на текстах, а в реальном мире. Он имеет тело, сенсорику, опыт действий и последствий. Смысл формируется через взаимодействие с физической реальностью.

Современные LLM работают иначе. Они выявляют статистические зависимости между токенами и символами. Они прекрасно оперируют языком, но не обладают собственным опытом. Это ограничение определяет потолок чисто текстовых моделей и задает направление дальнейшей эволюции AI.

Машинное обучение: как нейросети учатся, а не программируются

Термины AI, ML и Deep Learning часто используют как синонимы, но на самом деле они описывают разные уровни одной системы.
  • AI (Artificial Intelligence)
    Цель: система должна выполнять интеллектуальные задачи.
  • ML (Machine Learning)
    Способ: система обучается на данных, а не программируется вручную.
  • Deep Learning
    Подмножество ML, использующее многослойные нейронные сети для извлечения сложных признаков.
Ключевая идея машинного обучения – отказ от жестких правил. Мы не объясняем модели, что такое объект или смысл. Мы показываем примеры и минимизируем ошибку.
LLM и AI-агенты: термины AI, ML и Deep Learning
AI, ML и Deep Learning

Принцип обучения нейросетей

Нейросети не программируются напрямую – они обучаются на данных. Процесс обучения сводится к повторяющемуся числовому циклу:
  • Прямое распространение. Сеть принимает входные данные и формирует предсказание.
  • Оценка результата. Предсказание сравнивается с правильным ответом, и вычисляется ошибка – числовая мера того, насколько модель отклонилась от ожидаемого результата.
  • Обратное распространение ошибки (backpropagation). Ошибка распространяется назад по всем слоям сети, и веса нейронов корректируются так, чтобы следующее предсказание было точнее. Этот процесс повторяется тысячи и миллионы раз.
Важно подчеркнуть: это не обучение в человеческом смысле. Модель ничего не “понимает” и не делает выводов. Она лишь решает задачу оптимизации – находит такие значения весов, при которых ошибка минимальна. Тем не менее именно этот механический процесс позволяет нейросетям решать задачи, которые невозможно описать жёсткими правилами или логикой.

Архитектура сети: ширина, глубина и пределы роста

Качество работы нейросети определяется не только данными, но и ее архитектурой.
  • Ширина сети (количество нейронов в слоях) определяет, сколько различных факторов модель может учитывать одновременно.
  • Глубина (число слоев) отвечает за способность выучивать сложные, многоуровневые и абстрактные зависимости.
Интуитивно кажется, что чем больше и глубже сеть, тем она умнее. На практике это не так. Если архитектура оказывается слишком сложной для объема и качества данных, возникает переобучение: модель запоминает частные детали и шум, отлично работает на обучающих примерах, но плохо справляется с реальными данными.
Более 7 лет Lucky Hunter соединяет топовых IT-специалистов с международными компаниями и стартапами

Ищете IT-специалиста в команду?

Эволюция архитектур: от памяти к вниманию

Развитие больших языковых моделей часто воспринимается как резкий технологический скачок. На самом деле это результат долгой эволюции архитектур, каждая из которых решала конкретное ограничение предыдущей.

От универсальных сетей к структуре данных

Первые нейросети были архитектурно универсальными. Feedforward-сети обрабатывали входные данные как набор чисел без внутренней структуры. Это хорошо работало для задач классификации и регрессии, но плохо масштабировалось на сложные типы данных.

Следующим шагом стали CNN (сверточные нейронные сети). Они впервые явно зашили в архитектуру предположение о структуре данных: локальность и пространственную связность. Это позволило эффективно работать с изображениями и видео, извлекая признаки от простых контуров до сложных форм.

Однако текст и речь обладают иной природой. Здесь критичен порядок элементов и зависимость от предыдущего контекста.

Последовательности и ограничение памяти

Для работы с последовательностями появились RNN (рекуррентные нейронные сети). Их ключевая идея – передача состояния от шага к шагу, что позволяло учитывать прошлый контекст.

На практике у RNN быстро выявилось фундаментальное ограничение. При работе с длинными последовательностями полезная информация либо постепенно затухала, либо начинала неконтролируемо расти. Модель теряла способность удерживать дальний контекст, а обучение становилось нестабильным.

LSTM: управляемая память вместо простой рекурсии

Решением стали LSTM (Long Short-Term Memory) – рекуррентные ячейки с механизмом управляемой памяти.

В отличие от классических RNN, LSTM явно разделяют:
  • долгосрочную память;
  • краткосрочное состояние;
  • механизмы записи, чтения и забывания информации.
Это позволило модели самой определять, какие элементы контекста важны для дальнейшей генерации, а какие можно отбросить. LSTM стали первым устойчивым решением для работы с длинными текстами и заложили основу для ранних языковых моделей.

Почему этого оказалось недостаточно

Несмотря на успехи, LSTM оставались архитектурно последовательными: текст обрабатывался шаг за шагом. Это ограничивало параллелизм, осложняло масштабирование и делало обучение дорогим.

Следующий шаг эволюции требовал отказа от идеи "памяти как цепочки" и перехода к принципиально иному механизму работы с контекстом. Так появился механизм внимания и архитектура трансформеров.

Трансформеры: внимание вместо памяти

В ее основе архитектуры Transformer лежит механизм внимания (attention) – способ работать с контекстом не последовательно, а сразу целиком.

Вместо того чтобы “помнить” прошлое состояние, модель на каждом шаге оценивает, какие части входного текста наиболее важны прямо сейчас, независимо от их положения в последовательности. Это позволяет учитывать дальние зависимости без деградации сигнала.

Ключевые последствия этого перехода:
  • контекст обрабатывается целиком, а не шаг за шагом;
  • обучение легко параллелится и масштабируется;
  • модель эффективно работает с очень длинными текстами.
Современные большие языковые модели построены именно на этой идее. В моделях семейства GPT используется декодер трансформера, который по заданному контексту вероятностно предсказывает следующий токен – и так шаг за шагом формирует ответ.
LLM и AI-агенты: ai архитектура

Язык чисел: как LLM работают со смыслом

Одна из ключевых причин непонимания LLM – представление, будто модель "читает" и "понимает" текст. На самом деле языковая модель никогда не работает со словами напрямую.

Любой текст сначала разбивается на токены – минимальные фрагменты слов или символов. Эти токены затем преобразуются в эмбеддинги – числовые векторы фиксированной размерности.

Эмбеддинги и геометрия смысла

В пространстве эмбеддингов смысл перестает быть абстрактным понятием и становится геометрией. Слова и фразы, которые используются в схожих контекстах, располагаются ближе друг к другу. Различия в значении выражаются расстояниями и направлениями между векторами.

Все операции LLM (внимание, сравнение, взвешивание контекста) происходят именно в этом числовом пространстве. Модель не оперирует значениями слов, она работает с их взаимным расположением.

Генерация как вероятностный процесс

Ответ LLM – это не извлечение готового знания. Это последовательный процесс предсказания следующего токена на основе распределения вероятностей.

На каждом шаге модель оценивает: какой токен наиболее вероятен с учетом всего доступного контекста. Затем выбранный токен добавляется к последовательности – и процесс повторяется.

Именно этот механизм создает иллюзию осмысленного ответа, несмотря на то, что базовый принцип остается статистическим.

Управление неопределенностью: temperature

Генерация текста в LLM – это вероятностный процесс. Модель на каждом шаге выбирает следующий токен из распределения вероятностей. Параметр temperature управляет формой этого распределения, то есть степенью неопределенности выбора.
  • Низкие значения temperature (≈ 0-0.3) сжимают распределение
    Модель почти всегда выбирает наиболее вероятный токен, выдавая стабильные, предсказуемые и детерминированные ответы. Такой режим используется для кода, инструкций и задач, где важна точность.
  • Средние значения (≈ 0.4-0.8) дают баланс между точностью и вариативностью
    Ответы остаются осмысленными, но становятся менее шаблонными – это наиболее универсальный режим.
  • Высокие значения (≈ 0.9-1.3 и выше) делают распределение более плоским
    Модель начинает чаще выбирать менее вероятные токены, увеличивая вариативность и креативность, но одновременно повышая риск ошибок и смысловых сбоев.

Современный AI-стек

В реальных продуктах LLM – это только один из компонентов. Современный AI – это система, в которой язык, данные и действия связаны в единый процесс. На практике такой стек можно условно разделить на несколько уровней: принятие решений, работа с контекстом и выполнение действий.

Мышление: AI-агенты

AI-агент – это система, в которой LLM получает цель и действует не как генератор текста, а как оркестратор процесса. Агент может разбивать задачу на шаги, выбирать инструменты, оценивать промежуточный результат и корректировать стратегию.

Именно агентный подход превращает LLM из “умного чата” в исполнительную систему, способную решать прикладные задачи внутри продукта.

Память: RAG

LLM работают в рамках ограниченного контекстного окна и не имеют доступа к внутренним данным компании. Эта проблема решается через RAG (Retrieval-Augmented Generation) – механизм внешнего поиска и подгрузки релевантной информации в контекст модели.

RAG позволяет использовать корпоративные данные без переобучения модели и напрямую влияет на качество и стабильность результатов. На практике именно неподготовленные данные, а не модель, чаще всего становятся причиной неудачных AI-внедрений.

Поведение: тюнинг

Для управления стилем ответов и логикой поведения могут применяться дополнительные методы настройки – от системных инструкций до fine-tuning на ограниченных доменных данных. Однако полноценное дообучение модели остается дорогим и оправдано лишь в узких сценариях. В большинстве бизнес-задач ключевую роль играет не обучение модели, а качество данных и контекста, с которым она работает.

Действие: инструменты и MCP

Чтобы агент мог выполнять действия, ему необходим доступ к инструментам: API, базам данных, внутренним сервисам. Через такие интеграции LLM может не только рассуждать, но и реально влиять на систему – запускать процессы, изменять данные, принимать решения.

MCP (Multi-Tool Communication Protocol) позволяют выстраивать безопасное и управляемое выполнение этих действий внутри продукта.
Более 7 лет Lucky Hunter соединяет топовых IT-специалистов с международными компаниями и стартапами

Ищете IT-специалиста в команду?

Почему внедрение AI часто проваливается

Несмотря на зрелость технологий, значительная часть AI-проектов заканчивается разочарованием. Почти всегда причина кроется не в выборе модели, а в системных ошибках внедрения.

Данные как основа

LLM не создают качество из ничего. Они усиливают свойства входных данных. Если данные фрагментированы, противоречивы или устарели, результат будет таким же – независимо от архитектуры модели.

Поэтому внедрение AI – это в первую очередь проект по работе с данными. Практически устойчивая последовательность выглядит так:
аудит –> очистка –> структурирование –> внедрение AI
Попытка перескочить эти этапы приводит к нестабильным ответам, утрате доверия пользователей и быстрому закрытию проекта.
LLM и AI-агенты: почему ai проекты проваливаются
Последовательность внедрения AI в проект

Организация важнее модели

Вторая причина провалов – отсутствие четкого разделения ролей.
  • ML-инженеры работают внутри модели: обучение, оптимизация, контроль переобучения.
  • LLM / AI-инженеры проектируют системы вокруг модели: агентные архитектуры, RAG, интеграции с процессами.
  • AI Product Manager / Product Engineer формулирует бизнес-цели, ограничения и критерии успеха.
Без последней роли AI-проект часто оказывается технически корректным, но бесполезным для бизнеса. Модель работает – ценность не возникает.

На практике чаще всего проблема не в модели, а в людях, которые должны с ней работать. Например, недавно к Lucky Hunter обратился стартап 42. с запросом на закрытие сразу нескольких исследовательских позиций — от Senior ML Researcher до ML Engineer. Требовалась глубокая экспертиза в ресерче, опыт работы с foundation-моделями и понимание финансового домена, при этом в сжатые сроки.

Подробно рассказали о том, как мы закрывали эти роли в отдельном кейсе.
ML Researcher с редкой экспертизой: где мы искали и как нашли 3-х экспертов для 42.

Тренды развития AI

Потолок масштабирования LLM

Большие языковые модели уже во многом достигли своего потолка. Простое увеличение количества параметров и размера контекстного окна перестает заметно улучшать качество. Даже относительно компактные модели сегодня достаточно хорошо решают большинство прикладных задач. Поэтому дальнейшее развитие смещается не в сторону "больше", а в сторону дешевле, быстрее и доступнее. В ближайшие годы LLM начнут массово переезжать на специализированные чипы и станут доступны локально – на телефонах и устройствах, даже без подключения к интернету. Оптимизация в облаке будет происходить в основном за счет архитектурных улучшений, а не роста размеров моделей.

От интерфейсного AI к AI-first системам

Сегодня можно выделить два базовых сценария внедрения искусственного интеллекта. Первый – самый распространенный – это добавление чат-бота поверх существующего продукта. В этом случае AI выступает в роли интерфейса: он дергает уже существующие функции, инструменты и API. Пользователь по‑прежнему вручную проходит весь процесс – получает задачу, ищет информацию, принимает решения, запускает действия и проверяет результат. Меняется форма взаимодействия, но не сама логика работы. Как правило, такой подход почти не дает стратегического преимущества.

Второй сценарий – AI‑first. Здесь процесс проектируется заново, исходя из того, что в системе появляется полноценный "исполнитель" – AI‑агент, которому можно поставить задачу целиком.

Если посмотреть на это через призму обычного таск‑трекера, разница становится наглядной. Человеку приходит задача: что нужно сделать, по каким правилам, как проверить результат. AI‑агент получает ровно ту же самую задачу и выполняет ее, используя доступные инструменты. Ключевой вопрос – какие из этих задач достаточно хорошо описаны, формализованы и повторяемы, чтобы их мог выполнять агент. На практике это приводит не просто к автоматизации, а к пересборке процесса. Людей убирают из механических этапов, либо радикально упрощают саму цепочку действий. Человек остается на уровне постановки целей, контроля и принятия нестандартных решений.

Оркестрация вместо жесткой логики

В AI‑first продуктах пользователь взаимодействует не с набором заранее зашитых сценариев, а с оркестратором. Этот слой принимает решения на уровне продукта: какие возможности использовать, в каком порядке и в каком объеме. Принципиальное отличие от классического ПО заключается в том, что мы больше не кодируем жесткую логику исполнения. Мы описываем доступные возможности системы, а LLM в зависимости от запроса пользователя сама решает, какие части программы задействовать. Это разворот логики: раньше человек работал внутри ограниченного пространства, заданного программой. Теперь программа адаптируется под запрос человека. Именно это и является сутью AI‑first подхода.

Выход AI в реальный мир

Доступность LLM открывает путь к повсеместному внедрению AI за пределами цифровых продуктов. Сейчас LLM активно используются в маркетинге, разработке и онлайн‑сервисах. Реальный сектор – производство, логистика, строительство – остается слабо охваченным. Главное ограничение современных LLM заключается в отсутствии собственного опыта. Они не понимают физический мир, потому что никогда с ним не взаимодействовали. Следующий этап развития AI связан с роботизацией. Дешевые и компактные LLM будут встраиваться в роботов и автономные системы, которые изначально обучаются мультимодально: через зрение, звук, тактильные ощущения и действия. Такие системы начнут формировать понимание физики, объектов и причинно‑следственных связей не через текст, а через опыт. Собранные данные станут основой для нового поколения мультимодальных моделей, которые затем вернутся в цифровую среду уже с пониманием реального мира. По текущим оценкам, активная роботизация реального сектора начнется в горизонте 5-7 лет.

Человеческий фактор и зрелость рынка

Важно понимать, что сегодняшние сложности внедрения AI связаны не столько с технологиями, сколько с людьми. Сами модели уже достаточно надежны. Многие специалисты заявляют, что используют AI и стали продуктивнее. Однако объективные измерения показывают обратное: значительное время уходит на коммуникацию с моделью, уточнение запросов и исправление ошибок. Это расхождение между субъективным ощущением и реальной эффективностью – признак ранней стадии освоения технологии. Навык работы с AI еще не стал базовым. Со временем взаимодействие с AI станет таким же повседневным умением, как работа с компьютером. Отдельные роли вроде промпт‑инженеров исчезнут, уступив место более широким специализациям. Период турбулентности на рынке продлится еще 2–3 года, прежде чем сформируется устойчивый набор ролей и практик.
AI перестал быть экспериментом – сегодня это основа конкурентного бизнеса. Выигрывают компании, которые быстрее других превращают технологии в рабочие процессы. Мы в Lucky Hunter поможем понять, какие AI-специалисты нужны именно вашему проекту, и найдем тех, кто способен превратить требования бизнеса в работающие системы.

Готовы проверить себя? Ниже – тот самый тест, который мы анонсировали в начале статьи.
LLM & AI Agents
Давайте закрепим! ✨

Чтобы новые знания не улетучились, давайте их тут же «прибьём к полочке» небольшим тестом.

Не страшно, если что-то забудете — как раз для этого мы его и делаем! После ответов вы увидите результаты, и всё точно встанет на свои места.

Считайте это полезной тренировкой для мозга после интенсивной лекции. Поехали?
Начать тест
С помощью чего общаются/воспринимают информацию модели?
Дальше
Проверить
Узнать результаты
Что такое эмбеддинг?
Дальше
Проверить
Узнать результаты
На чём базируются современные LLM?
Дальше
Проверить
Узнать результаты
Какой параметр влияет на креативность ответов модели?
Дальше
Проверить
Узнать результаты
Что такое AI-агент?
Дальше
Проверить
Узнать результаты
Что такое RAG?
Дальше
Проверить
Узнать результаты
Что такое Tuning модели?
Дальше
Проверить
Узнать результаты
Что такое MCP?
Дальше
Проверить
Узнать результаты
В процессе
LLM и агенты звучат как магия, пока не разложить по полочкам. Прочитайте статью ещё раз и попробуйте тест заново: прогресс будет быстрым.
Пройти ещё раз
В процессе
LLM и агенты звучат как магия, пока не разложить по полочкам. Прочитайте статью ещё раз и попробуйте тест заново: прогресс будет быстрым.
Пройти ещё раз
Ещё чуть-чуть
База уже есть: ты понимаешь общую механику, осталось добить термины и связи между ними. Перечитай статью и в следующий раз будет «вау».
Пройти ещё раз
Ещё чуть-чуть
База уже есть, осталось разобраться с терминами и связями между ними. Перечитайте статью и в следующий раз будет «вау».
Пройти ещё раз
Ещё чуть-чуть
База уже есть, осталось разобраться с терминами и связями между ними. Перечитайте статью и в следующий раз будет «вау».
Пройти ещё раз
Знаток!
Всё на месте. Вашим знаниям реально можно позавидовать.
Пройти ещё раз
Поделиться
Александра Годунова
Контент-менеджер в Lucky Hunter
Свяжитесь с нами — закроем даже самую сложную и редкую вакансию!
Найдём,
пока другие ищут!

Новые статьи