
14 мая 2026 г. в 18:00
Онлайн

Даниил Степанов
разработчик-исследователь, кандидат технических наук
Современные LLM генерируют код в разы быстрее разработчика, но «быстро» не значит «правильно»: модель может неверно понять задачу, внести логический баг, допустить уязвимость или сломать архитектуру проекта. Разберём классификацию таких ошибок и покажем, как ловить их до продакшена — с помощью SDD/TDD, AI-ревью-пайплайнов, тестирования, статического и динамического анализа, а также правил и ограничений, задаваемых на уровне фреймворка.
Классификация AI-ошибок: баги, галлюцинации, уязвимости
Рассмотрим типичные ошибки, которые совершает LLM при генерации кода: неверное понимание задачи, логические баги, уязвимости, проблемы с производительностью и архитектурные нарушения. Разберём, чем отличаются обычные дефекты от AI-специфичных ошибок: галлюцинаций, невалидных допущений и т.д. Покажем, почему такие проблемы сложно ловить только ручным ревью.
Как бороться с этими ошибками
Разберём практики, которые повышают качество LLM-сгенерированного кода: Specification-Driven Development, Test-Driven Development, статический и динамический анализ, ревью и ограничения на уровне промптов/настроек. Обсудим, где эти подходы действительно помогают, а где создают ложное чувство безопасности. На примерах покажем, как превратить требования, тесты и правила проекта в защитный контур вокруг AI-агента.
AI-ревью-пайплайны: автоматизация контроля качества
Научимся строить AI-ревью-пайплайны, специфичные для разных типов проектов, языков и задач. Разберём, какие проверки стоит запускать автоматически: от соответствия требованиям и архитектурным правилам до поиска багов, уязвимостей и регрессий. Отдельно обсудим, как комбинировать несколько ревьюеров и валидировать их выводы, чтобы не получать поток нерелевантных комментариев.
Гибридизация области анализа программ
Изучим, какую пользу может принести LLM при внедрении в классические пайплайны обеспечения качества программного обеспечения. Поговорим о связке LLM с SAST, DAST, тестами, трассировками и формальными правилами, где модель не заменяет анализаторы, а помогает интерпретировать и дополнять их результаты. Покажем, как такой гибридный подход снижает количество дефектов в программах.
Даниил Степанов

разработчик-исследователь, кандидат технических наук
Разработчикам Middle–Senior, тимлидам и техлидам, QA-инженерам, архитекторам, platform- и security-командам, которые: - уже используют AI-ассистенты в продакшене и столкнулись с багами/уязвимостями в сгенерированном коде - хотят выстроить системный контроль качества AI-кода, а не ловить проблемы постфактум - отвечают за SDLC, code review и безопасность в командах, где LLM пишет значимую часть кода - используют IDE-агентов (Cursor, GitHub Copilot, Veai) или консольных агентов (Claude Code, Codex, Aider)
14 мая 2026 г. в 18:00
Онлайн

Даниил Степанов
разработчик-исследователь, кандидат технических наук