<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Herald of Technological University</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Herald of Technological University</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ВЕСТНИК ТЕХНОЛОГИЧЕСКОГО УНИВЕРСИТЕТА</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">3034-4689</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">103004</article-id>
   <article-id pub-id-type="doi">10.55421/3034-4689_2025_28_6_91</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>3. Информатика, вычислительная техника и управление</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>3. Information teory, computer technology and control</subject>
    </subj-group>
    <subj-group>
     <subject>3. Информатика, вычислительная техника и управление</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">TEXT SENTIMENT CLASSIFICATION BASED ON NEURAL NETWORK MODELING</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>КЛАССИФИКАЦИИ ТОНАЛЬНОСТИ ТЕКСТА НА ОСНОВЕ НЕЙРОСЕТЕВОГО МОДЕЛИРОВАНИЯ</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Емалетдинова</surname>
       <given-names>Л Ю</given-names>
      </name>
      <name xml:lang="en">
       <surname>Емалетдинова</surname>
       <given-names>Л Ю</given-names>
      </name>
     </name-alternatives>
     <email>lilia@stcline.ru</email>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Пищулин</surname>
       <given-names>М. С.</given-names>
      </name>
      <name xml:lang="en">
       <surname>Pischulin</surname>
       <given-names>M. S.</given-names>
      </name>
     </name-alternatives>
     <xref ref-type="aff" rid="aff-2"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">КНИТУ-КАИ</institution>
     <country>ru</country>
    </aff>
    <aff>
     <institution xml:lang="en">КНИТУ-КАИ</institution>
     <country>ru</country>
    </aff>
   </aff-alternatives>
   <aff-alternatives id="aff-2">
    <aff>
     <institution xml:lang="ru">Казанский национальный исследовательский технический университет им. А.Н. Туполева</institution>
    </aff>
    <aff>
     <institution xml:lang="en">Kazan National Research Technical University named after A.N. Tupolev</institution>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2025-08-07T21:37:26+03:00">
    <day>07</day>
    <month>08</month>
    <year>2025</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2025-08-07T21:37:26+03:00">
    <day>07</day>
    <month>08</month>
    <year>2025</year>
   </pub-date>
   <volume>28</volume>
   <issue>6</issue>
   <fpage>91</fpage>
   <lpage>95</lpage>
   <history>
    <date date-type="received" iso-8601-date="2025-08-05T00:00:00+03:00">
     <day>05</day>
     <month>08</month>
     <year>2025</year>
    </date>
   </history>
   <self-uri xlink:href="https://www.elibrary.ru/item.asp?id=82542866">https://www.elibrary.ru/item.asp?id=82542866</self-uri>
   <abstract xml:lang="ru">
    <p>В данной работе предлагается методика автоматического определения тональности текстовых отзывов покупателей интернет-магазинов с использованием рекуррентных нейронных сетей, оснащённых двумя LSTM-блоками с 1024 и 128 нейронов, каждый из которых использует ReLU активацию. Для кодирования текста в векторы была взята модель FastText, позволяющая учитывать морфологические особенности русского языка и извлекать информацию из частей слов. При этом два последовательно соединенных LSTM-слоя обеспечивают моделирование долгосрочных контекстуальных зависимостей, важных для анализа текстовых данных. Исследование направлено на преодоление ограничений существующих методов, позволяющих лишь частично учитывать семантические и морфологические особенности языка. В основе предлагаемого подхода лежит автоматическое выделение контекстуальных зависимостей, что особенно актуально при анализе неструктурированных данных. Экспериментальная часть исследования включает разработку модели, обученной на данных 60 тысяч размеченных отзывов, разделенных на тренировочную и тестовую выборки в соотношении 80 на 20, а также сравнительный анализ полученных на ее основе результатов классификации с использованием логистической регрессии и моделей машинного обучения с одним LSTM блоком. Полученные результаты демонстрируют повышение точности классификации (до 90 % на тестовой выборке) за счёт применения двух LSTM-слоёв. Сравнительный анализ показал, что предлагаемая схема превосходит классический алгоритм логистической регрессии и однослойные LSTM-модели по ключевым метрикам (Accuracy ≈ 0,89; F1-Score ≈ 0,9; AUC ≈ 0,95). Методика, предложенная в работе, позволяет качественно анализировать эмоциональную окраску текстов при обработке больших объемов данных. Предложенный подход демонстрирует высокую практическую значимость для масштабируемого мониторинга обратной связи и может быть расширен за счёт интеграции механизмов внимания (self-attention) и гибридных архитектур, объединяющих сильные стороны RNN и трансформеров.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>In this work, we propose a method for automatically determining the sentiment of text reviews posted by online store customers using recurrent neural networks equipped with two LSTM blocks with 1024 and 128 neurons, each employing ReLU activation. For text encoding into vectors, we use the FastText model, which captures the morphological nuances of the Russian language by extracting information from word sub-units. The two successive LSTM layers enable modeling of long-term contextual dependencies, crucial for analyzing textual data. This study aims to overcome the limitations of existing methods that only partially account for semantic and morphological language features. At the core of our approach is the automatic extraction of contextual dependencies, which is especially relevant when processing unstructured data. The experimental part of the research consists of developing a model trained on a dataset of 60000 annotated reviews, split into training and test sets in an 80:20 ratio, and conducting a comparative analysis of its classification results against those obtained with logistic regression and single-layer LSTM models. The results demonstrate an increase in classification accuracy - up to 90 % on the test set - through the use of two LSTM layers. Comparative evaluation shows that our two-layer LSTM architecture outperforms the classical logistic regression algorithm and single-layer LSTM models across key metrics (Accuracy ≈ 0.89; F1-Score ≈ 0.90; AUC ≈ 0.95). The proposed methodology enables effective sentiment analysis of large volumes of text data. Moreover, it exhibits high practical relevance for scalable monitoring of user feedback and can be extended by integrating attention mechanisms (self-attention) and hybrid architectures that combine the strengths of RNNs and Transformers.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>LSTM</kwd>
    <kwd>РЕКУРРЕНТНЫЕ НЕЙРОННЫЕ СЕТИ</kwd>
    <kwd>ТОНАЛЬНОСТЬ ТЕКСТА</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>LSTM</kwd>
    <kwd>RECURRENT NEURAL NETWORKS</kwd>
    <kwd>TEXT TONE</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p></p>
 </body>
 <back>
  <ref-list/>
 </back>
</article>
