<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Herald of Technological University</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Herald of Technological University</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ВЕСТНИК ТЕХНОЛОГИЧЕСКОГО УНИВЕРСИТЕТА</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">3034-4689</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">98707</article-id>
   <article-id pub-id-type="doi">10.55421/3034-4689_2025_28_4_97</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>3. Информатика, вычислительная техника и управление</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>3. Information teory, computer technology and control</subject>
    </subj-group>
    <subj-group>
     <subject>3. Информатика, вычислительная техника и управление</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">ANALYSIS OF THE EFFECTIVENESS OF RECURRENT NEURAL NETWORKS IN THE TASK OF CATEGORIZING MEDIA TEXTS</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>АНАЛИЗ ЭФФЕКТИВНОСТИ РЕКУРРЕНТНЫХ НЕЙРОННЫХ СЕТЕЙ В ЗАДАЧЕ КАТЕГОРИЗАЦИИ ТЕКСТОВ СРЕДСТВ МАССОВОЙ ИНФОРМАЦИИ</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Колобова</surname>
       <given-names>Дарья Алексеевна</given-names>
      </name>
      <name xml:lang="en">
       <surname>Kolobova</surname>
       <given-names>Dar'ya Alekseevna</given-names>
      </name>
     </name-alternatives>
     <email>darya.kolobova@inbox.ru</email>
     <xref ref-type="aff" rid="aff-1"/>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Казанский национальный исследовательский технический университет им. А.Н. Туполева</institution>
    </aff>
    <aff>
     <institution xml:lang="en">Kazan National Research Technical University named after A.N. Tupolev</institution>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2025-08-01T11:33:32+03:00">
    <day>01</day>
    <month>08</month>
    <year>2025</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2025-08-01T11:33:32+03:00">
    <day>01</day>
    <month>08</month>
    <year>2025</year>
   </pub-date>
   <volume>28</volume>
   <issue>4</issue>
   <fpage>97</fpage>
   <lpage>101</lpage>
   <self-uri xlink:href="https://elibrary.ru/item.asp?id=81207651">https://elibrary.ru/item.asp?id=81207651</self-uri>
   <abstract xml:lang="ru">
    <p>В статье исследуются современные методы и подходы к решению задачи классификации новостных текстов, что является актуальной проблемой в условиях большого объема информации, доступной пользователям. Классификация новостей играет ключевую роль в оптимизации процесса поиска информации, способствует созданию персонализированного контента и помогает анализировать общественные тренды, что особенно важно в эпоху цифровизации. В ходе работы рассматриваются основные концепции и принципы, связанные с обработкой и анализом текста, включая этапы предобработки текста, составления словаря, токенизации, создания батчей из текстовых последовательностей и классификации текстов. Особенное внимание уделяется различным архитектурам рекуррентных нейронных сетей (RNN), их особенностями, преимуществами и недостатками в контексте задачи классификации текста. Рекуррентные нейронные сети являются мощным инструментом для обработки последовательных данных, таких как текст, и позволяют учитывать контекст при классификации. Проведены эксперименты с различными моделями рекуррентных нейронных сетей, выполнен подбор оптимальных параметров, обеспечивающих высокую точность классификации новостных текстов, и выявлена наилучшая модель - GRU_model512_2layers_dropout_epoch10, состоящая из двух рекуррентных слоев архитектуры GRU, содержащая по 512 нейронов в скрытом слое, с дропаутом 20%, обученная на 10 эпохах. Она занимает меньше места в памяти (на 10 мб), чем модель с архитектурой LSTM и такими же параметрами, поскольку архитектура GRU имеет более простое строение. В связи с этим она также быстрее обучается (на 17 с/эпоха быстрее, чем модель с архитектурой LSTM). Также она показывает более высокую точность (91,6 %), чем модели с более простой архитектурой, склонные к переобучению. Для программной реализации алгоритма классификации новостных текстов используется язык программирования Python, а также фреймворк машинного обучения с открытым исходным кодом PyTorch и библиотека обработки естественного языка NLTK. Процесс классификации новостного текста выполняется в следующей последовательности: загрузка текста, его обработка, классификация и вывод категории, к которой данный текст принадлежит. Для обучения моделей и проверки результатов используется набор данных, содержащий образцы новостных текстов четырех категорий.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>The article examines modern methods and approaches to solving the problem of classifying news texts, which is an urgent problem in the context of a large amount of information available to users. News classification plays a key role in optimizing the information retrieval process, contributes to the creation of personalized content and helps analyze social trends, which is especially important in the era of digitalization. In the course of the work, the main concepts and principles related to text processing and analysis are considered, including the stages of text preprocessing, dictionary compilation, tokenization, creation of batches from text sequences and text classification. Special attention is paid to various architectures of recurrent neural networks (RNNs), their features, advantages and disadvantages in the context of the text classification task. Recurrent neural networks are a powerful tool for processing sequential data, such as text, and allow for context-based classification. Experiments have been conducted with various models of recurrent neural networks, optimal parameters have been selected to ensure high classification accuracy of news texts, and the best model has been identified - GRU_model512_2layers_dropout_epoch10, consisting of two recurrent layers of the GRU architecture, containing 512 neurons each in a hidden layer, with a dropout of 20%, trained on 10 epochs. It takes up less memory space (by 10 MB) than a model with the LSTM architecture and the same parameters, since the GRU architecture has a simpler structure. In this regard, it is also faster to learn (17 s/epoch faster than the LSTM architecture model). It also shows higher accuracy (91.6%) than models with simpler architectures, which are prone to overfitting. For the software implementation of the news text classification algorithm, the Python programming language is used, as well as the open source PyTorch machine learning framework and the NLTK natural language processing library. The process of classifying a news text is performed in the following sequence: loading the text, processing it, classifying it, and outputting the category to which the text belongs. To train the models and verify the results, a dataset containing samples of four categories of news texts is used.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>НЕЙРОННЫЕ СЕТИ</kwd>
    <kwd>КЛАССИФИКАЦИЯ ТЕКСТОВ</kwd>
    <kwd>ОБРАБОТКА ЕСТЕСТВЕННОГО ЯЗЫКА</kwd>
    <kwd>ТОКЕНИЗАЦИЯ</kwd>
    <kwd>РЕКУРРЕНТНЫЕ НЕЙРОННЫЕ СЕТИ</kwd>
    <kwd>ПРЕДОБРАБОТКА ТЕКСТА</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>NEURAL NETWORKS</kwd>
    <kwd>TEXT CLASSIFICATION</kwd>
    <kwd>NATURAL LANGUAGE PROCESSING</kwd>
    <kwd>TOKENIZATION</kwd>
    <kwd>RECURRENT NEURAL NETWORKS</kwd>
    <kwd>TEXT PREPROCESSING</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p></p>
 </body>
 <back>
  <ref-list/>
 </back>
</article>
