Компаниям
Разработчикам
Партнерам
Новости
О нас
Компаниям
Разработчикам
Партнерам
Новости
О нас
Вебинар
Мероприятия

/

Качество кода в эпоху AI: как не утонуть в багах и уязвимостях

Качество кода в эпоху AI: как не утонуть в багах и уязвимостях

14.05
Регистрация
Качество кода в эпоху AI: как не утонуть в багах и уязвимостях

14 мая 2026 г. в 18:00

Онлайн

Даниил Степанов

Даниил Степанов

разработчик-исследователь, кандидат технических наук

О мероприятии

Современные LLM генерируют код в разы быстрее разработчика, но «быстро» не значит «правильно»: модель может неверно понять задачу, внести логический баг, допустить уязвимость или сломать архитектуру проекта. Разберём классификацию таких ошибок и покажем, как ловить их до продакшена — с помощью SDD/TDD, AI-ревью-пайплайнов, тестирования, статического и динамического анализа, а также правил и ограничений, задаваемых на уровне фреймворка.

Программа

Классификация AI-ошибок: баги, галлюцинации, уязвимости

Рассмотрим типичные ошибки, которые совершает LLM при генерации кода: неверное понимание задачи, логические баги, уязвимости, проблемы с производительностью и архитектурные нарушения. Разберём, чем отличаются обычные дефекты от AI-специфичных ошибок: галлюцинаций, невалидных допущений и т.д. Покажем, почему такие проблемы сложно ловить только ручным ревью.

Как бороться с этими ошибками

Разберём практики, которые повышают качество LLM-сгенерированного кода: Specification-Driven Development, Test-Driven Development, статический и динамический анализ, ревью и ограничения на уровне промптов/настроек. Обсудим, где эти подходы действительно помогают, а где создают ложное чувство безопасности. На примерах покажем, как превратить требования, тесты и правила проекта в защитный контур вокруг AI-агента.

AI-ревью-пайплайны: автоматизация контроля качества

Научимся строить AI-ревью-пайплайны, специфичные для разных типов проектов, языков и задач. Разберём, какие проверки стоит запускать автоматически: от соответствия требованиям и архитектурным правилам до поиска багов, уязвимостей и регрессий. Отдельно обсудим, как комбинировать несколько ревьюеров и валидировать их выводы, чтобы не получать поток нерелевантных комментариев.

Гибридизация области анализа программ

Изучим, какую пользу может принести LLM при внедрении в классические пайплайны обеспечения качества программного обеспечения. Поговорим о связке LLM с SAST, DAST, тестами, трассировками и формальными правилами, где модель не заменяет анализаторы, а помогает интерпретировать и дополнять их результаты. Покажем, как такой гибридный подход снижает количество дефектов в программах.

Посетители вебинара

  • будут разбираться в типичных AI-ошибках и лучших практиках борьбы с ними
  • получат практический экскурс в SDD/TDD и их применение к AI-сгенерированному коду
  • смогут спроектировать AI-ревью-пайплайн под свой проект и команду
  • увидят, как LLM помогают классическим средствам статического и динамического анализа
Спикеры

Даниил Степанов

Даниил Степанов

разработчик-исследователь, кандидат технических наук

Кому будет интересно

Разработчикам Middle–Senior, тимлидам и техлидам, QA-инженерам, архитекторам, platform- и security-командам, которые: - уже используют AI-ассистенты в продакшене и столкнулись с багами/уязвимостями в сгенерированном коде - хотят выстроить системный контроль качества AI-кода, а не ловить проблемы постфактум - отвечают за SDLC, code review и безопасность в командах, где LLM пишет значимую часть кода - используют IDE-агентов (Cursor, GitHub Copilot, Veai) или консольных агентов (Claude Code, Codex, Aider)

14 мая 2026 г. в 18:00

Онлайн

Даниил Степанов

Даниил Степанов

разработчик-исследователь, кандидат технических наук