<?xml version="1.0"?>
<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Herald of Technological University</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Herald of Technological University</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ВЕСТНИК ТЕХНОЛОГИЧЕСКОГО УНИВЕРСИТЕТА</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">3034-4689</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">114023</article-id>
   <article-id pub-id-type="doi">10.55421/3034-4689_2025_28_12_124</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>3. Информатика, вычислительная техника и управление</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>3. Information teory, computer technology and control</subject>
    </subj-group>
    <subj-group>
     <subject>3. Информатика, вычислительная техника и управление</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">VIDEO GENERATION OF THE UNDERLYING SURFACE BASED ON A SINGLE IMAGE</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ГЕНЕРАЦИЯ ВИДЕО ПОДСТИЛАЮЩЕЙ ПОВЕРХНОСТИ НА ОСНОВЕ ОДИНОЧНОГО СНИМКА</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Колобова</surname>
       <given-names>Дарья Алексеевна</given-names>
      </name>
      <name xml:lang="en">
       <surname>Kolobova</surname>
       <given-names>Dar'ya Alekseevna</given-names>
      </name>
     </name-alternatives>
     <email>darya.kolobova@inbox.ru</email>
     <xref ref-type="aff" rid="aff-1"/>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Шлеймович</surname>
       <given-names>Михаил Петрович</given-names>
      </name>
      <name xml:lang="en">
       <surname>Shleymovich</surname>
       <given-names>Mikhail Petrovich</given-names>
      </name>
     </name-alternatives>
     <email>shlch@mail.ru</email>
     <bio xml:lang="ru">
      <p>кандидат технических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>candidate of technical sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Казанский национальный исследовательский технический университет им. А.Н. Туполева</institution>
    </aff>
    <aff>
     <institution xml:lang="en">Kazan National Research Technical University named after A.N. Tupolev</institution>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2026-01-28T16:57:17+03:00">
    <day>28</day>
    <month>01</month>
    <year>2026</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2026-01-28T16:57:17+03:00">
    <day>28</day>
    <month>01</month>
    <year>2026</year>
   </pub-date>
   <volume>28</volume>
   <issue>12</issue>
   <fpage>124</fpage>
   <lpage>134</lpage>
   <history>
    <date date-type="received" iso-8601-date="2026-01-28T00:00:00+03:00">
     <day>28</day>
     <month>01</month>
     <year>2026</year>
    </date>
   </history>
   <self-uri xlink:href="https://www.elibrary.ru/item.asp?id=87262347">https://www.elibrary.ru/item.asp?id=87262347</self-uri>
   <abstract xml:lang="ru">
    <p>Генерация видео является одной из наиболее актуальных и сложных задач в области искусственного интеллекта и компьютерного зрения. Ее решение открывает широкие возможности для креативных индустрий, бизнеса, образования, маркетинга. Однако генерация продолжительного, семантически связного видео с высоким разрешением остается нерешенной проблемой. Этим объясняется необходимость создания новых, а также исследования уже существующих моделей. В данной статье проводится сравнительный анализ основных методов генерации видео: вариационных автоэнкодеров (VAE), генеративно-состязательных сетей (GAN), авторегрессионных, flow-based и диффузионных моделей. Рассматриваются их ключевые архитектурные особенности, достоинства и недостатки. Особое внимание в работе уделено диффузионным моделям, которые на данный момент являются передовым подходом для решения задачи генерации видео. За последние несколько лет появилось огромное количество диффузионных моделей генерации видео, среди которых наиболее известными являются Sora (OpenAI), Gen-3 (Runway), Kandinsky (Sber AI), Stable Video Diffusion (Stability AI). Однако большинство из них являются закрытыми, коммерческими продуктами, исходный код и архитектура которых недоступны для исследования и модификации. Для реализации генерации в работе используется диффузионная модель с открытым исходным кодом Stable Video Diffusion. Практическая часть исследования включает генерацию видео на основе исходного изображения подстилающей поверхности, а также анализ полученного результата. Сгенерированные видеопоследовательности могут быть использованы для симуляции различных полетных сценариев и расширения датасетов для беспилотных летательных аппаратов (БПЛА). В ходе анализа качества сгенерированного видео выявлено, что для предотвращения накопления артефактов и ошибок генерации требуется дополнительная обработка последовательности кадров после 10-13 кадра видео. Анализ проводился с помощью набора метрик, отражающих изменение цветовых характеристик и текстуры сгенерированного видео.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>Video generation is one of the most urgent and challenging tasks in the field of artificial intelligence and computer vision. Solution of this task opens up wide opportunities for creative industries, business, education, and marketing. However, generating long-lasting, semantically coherent high-resolution video remains an unsolved problem. This explains necessity to create new models, as well as research existing models. This article provides a comparative analysis of the main methods of video generation: variational autoencoders (VAE), generative-adversarial networks (GAN), autoregressive, flow-based and diffusion models. Their key architectural features, advantages and disadvantages are considered. Special attention is paid to diffusion models, which are currently an advanced approach for solving the problem of video generation. Over the past few years, a huge number of diffusion video generation models have appeared, among which the most famous are Sora (OpenAI), Gen-3 (Runway), Kandinsky (Sber AI), Stable Video Diffusion (Stability AI). However, most of them are closed, commercial products, the source code and architecture of which are inaccessible for research and modification. The open source Stable Video Diffusion model is used to implement the generation. The practical part of the study includes video generation based on the original image of the underlying surface, as well as analysis of the result. The generated video sequences can be used to simulate various flight scenarios and expand datasets for unmanned aerial vehicles (UAVs). During the analysis of the quality of the generated video, it was revealed that additional processing of the sequence of frames after 10-13 frames of the video is required to prevent the accumulation of artifacts and generation errors. The analysis was carried out using a set of metrics reflecting changes in the color characteristics and texture of the generated video.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>НЕЙРОННЫЕ СЕТИ</kwd>
    <kwd>ГЕНЕРАЦИЯ ВИДЕО</kwd>
    <kwd>ОБРАБОТКА ИЗОБРАЖЕНИЙ</kwd>
    <kwd>КАДР</kwd>
    <kwd>ДИФФУЗИОННЫЕ МОДЕЛИ</kwd>
    <kwd>ИНТЕРПОЛЯЦИЯ</kwd>
    <kwd>ЦВЕТОВЫЕ ХАРАКТЕРИСТИКИ</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>NEURAL NETWORKS</kwd>
    <kwd>VIDEO GENERATION</kwd>
    <kwd>IMAGE PROCESSING</kwd>
    <kwd>FRAME</kwd>
    <kwd>DIFFUSION MODELS</kwd>
    <kwd>INTERPOLATION</kwd>
    <kwd>COLOR CHARACTERISTICS</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p></p>
 </body>
 <back>
  <ref-list/>
 </back>
</article>
