<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Virtual Communication and Social Networks</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Virtual Communication and Social Networks</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Виртуальная коммуникация и социальные сети</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">2782-4799</issn>
   <issn publication-format="online">2782-4802</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">100955</article-id>
   <article-id pub-id-type="doi">10.21603/2782-4799-2025-4-2-163-171</article-id>
   <article-id pub-id-type="edn">enimqp</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>Междисциплинарные исследования языка</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>Interdisciplinary Linguistics</subject>
    </subj-group>
    <subj-group>
     <subject>Междисциплинарные исследования языка</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">Artificial Neural Network Text Generation  as a New Type of Masking the Authorship</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Искусственная нейросетевая генерация текста  как новый вид маскировки письменной речи автора</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Огорелков</surname>
       <given-names>Игорь Витальевич</given-names>
      </name>
      <name xml:lang="en">
       <surname>Ogorelkov</surname>
       <given-names>Igor' Vital'evich</given-names>
      </name>
     </name-alternatives>
     <email>ogorelkov.69@mail.ru</email>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Махаева</surname>
       <given-names>Елизавета Владиславовна</given-names>
      </name>
      <name xml:lang="en">
       <surname>Mahaeva</surname>
       <given-names>Elizaveta Vladislavovna</given-names>
      </name>
     </name-alternatives>
     <xref ref-type="aff" rid="aff-2"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Государственный Институт русского языка им. А.С. Пушкина</institution>
     <city>Moscow</city>
     <country>RU</country>
    </aff>
    <aff>
     <institution xml:lang="en">State Institute of Russian Language</institution>
     <city>Moscow</city>
     <country>RU</country>
    </aff>
   </aff-alternatives>
   <aff-alternatives id="aff-2">
    <aff>
     <institution xml:lang="ru">Московский Исследовательский Центр</institution>
     <city>Москва</city>
     <country>Россия</country>
    </aff>
    <aff>
     <institution xml:lang="en">Moscow Research Center</institution>
     <city>Moscow</city>
     <country>Russian Federation</country>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2025-07-04T00:00:00+03:00">
    <day>04</day>
    <month>07</month>
    <year>2025</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2025-07-04T00:00:00+03:00">
    <day>04</day>
    <month>07</month>
    <year>2025</year>
   </pub-date>
   <volume>4</volume>
   <issue>2</issue>
   <fpage>163</fpage>
   <lpage>171</lpage>
   <history>
    <date date-type="received" iso-8601-date="2025-03-12T00:00:00+03:00">
     <day>12</day>
     <month>03</month>
     <year>2025</year>
    </date>
    <date date-type="accepted" iso-8601-date="2025-05-06T00:00:00+03:00">
     <day>06</day>
     <month>05</month>
     <year>2025</year>
    </date>
   </history>
   <self-uri xlink:href="https://jsocnet.ru/en/nauka/article/100955/view">https://jsocnet.ru/en/nauka/article/100955/view</self-uri>
   <abstract xml:lang="ru">
    <p>Цель статьи – разработать новый вид маскировки письменной речи автора, такой как искусственная нейросетевая генерация текста, для проведения автороведческих экспертиз и последующих исследований. Материалом послужили тексты, выполненные человеком, и тексты, сгенерированные большой языковой моделью GPT 4.5. Применены методы композиционно-семантического, структурно-­семантического и грамматико-синтаксического анализа текстов, порожденных нейросетью в результате выполнения задачи по маскировке письменной речи автора. Данные методы позволили выявить и описать дефекты сгенерированных текстов, обусловленные нарушениями в их импликативной и референциальной семантике. Раскрыты актуальные вопросы языкового моделирования, возможностей генеративных языковых моделей, основанных на нейросетевых алгоритмах. Отмечена необходимость разграничения текстов естественного происхождения и генеративной природы для установления авторства. Установлено наличие корреляции между наполнением промпта дополнительными параметрами и результатом решения языковой моделью задачи по выполнению маскировки письменной речи автора. Сформулирован перечень типовых языковых признаков сгенерированных текстов. Приведены примеры сравнения текстов-оригиналов и текстов, порожденных нейросетью. Перспективы дальнейших исследований заключаются в углубленном изучении возможностей построения нейросетью сложных текстовых структур, включающих черты идиостиля автора текста-­оригинала, предварительно загруженного в модель, по заданным параметрам промптов, а также формирование диагностического комплекса признаков искусственной нейросетевой генерации текста как нового вида маскировки, в основу которого будет положен перечень типовых языковых признаков искусственно сгенерированных текстов.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>Artificial neural network text generation may be used to conceal the authorship of a text. As a result, experts have to be able to tell the difference between natural and generative tests to establish authorship. In this research, human-made texts and texts generated by GPT 4.5 were analyzed using the methods of compositional-semantic, structural-semantic, and grammatical-syntactic analysis. The analysis made it possible to identify and describe some typical flaws in the AI-generated texts caused by violations in their implicative and referential semantics. It revealed some current issues of language modeling and the possibilities of generative language models based on neural network algorithms. The quality of the generated text depended on additional parameters to the prompt. The article describes linguistic features typical of generated texts and provides each case with comparative examples. The prospects for further research lie in an in-depth study of complex AI-generated text structures, e.g., preloaded idiosyncratic texts. The practical result may yield a diagnostic complex of signs based on a list of typical linguistic features of AI-generated texts.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>автороведческая экспертиза</kwd>
    <kwd>нейросети</kwd>
    <kwd>генерация текста</kwd>
    <kwd>письменная речь</kwd>
    <kwd>маскировка письменной речи</kwd>
    <kwd>языковые модели</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>authorship expertise</kwd>
    <kwd>neural networks</kwd>
    <kwd>text generation</kwd>
    <kwd>written speech</kwd>
    <kwd>masking of written speech</kwd>
    <kwd>language models</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p></p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Алексеева Л. Г., Алексеев П. С. Язык промптов, или особенности формулирования запросов к генеративным нейросетям для создания изображений. Verba. Северо-Западный лингвистический журнал. 2024. № 3. С. 50–61. https://doi.org/10.34680/VERBA-2024-3(13)-50-61</mixed-citation>
     <mixed-citation xml:lang="en">Alekseeva L. G., Alekseev P. S. Prompt language, or features of formulation of queries to generative neural networks for image creation. Verba, 2024, (3): 50–61. (In Russ.) https://doi.org/10.34680/VERBA-2024-3(13)-50-61</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Бурнашев Р. Ф., Аламова А. С. Роль нейронных сетей в лингвистических исследованиях. Science and Education. 2023. Т. 4. № 3. С. 258–269.</mixed-citation>
     <mixed-citation xml:lang="en">Burnashev R. F., Alamova A. S. The role of neural networks in linguistic research. Science and Education, 2023, 4(3): 258–269. (In Russ.)</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Глазова Л. И., Лузгина А. Д., Пугачевский А., Кочетова А. Н., Фейзуллов Д., Чиж А. В., Виноградов М. Ю. Искусственный интеллект как эффективный инструмент коммуникаций. Российская школа связей с общественностью. 2024. № 33. С. 48–65. https://elibrary.ru/jurxuo</mixed-citation>
     <mixed-citation xml:lang="en">Glazova L. I., Luzgina A. D., Pugachevsky A., Kochetova A. N., Feyzullov D., Chizh A. V., Vinogradov M. Yu. Artificial intelligence as an effective communication tool. Rossiiskaia shkola sviazei s obshchestvennostiu, 2024, (33): 48–65. (In Russ.) https://elibrary.ru/jurxuo</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Гуляева П. С. Применение генеративных языковых моделей в условиях цифровизации нормотворчества. Вестник МГПУ. Серия: Юридические науки. 2023. № 3. С. 126–137. https://doi.org/10.25688/2076-9113.2023.51.3.11</mixed-citation>
     <mixed-citation xml:lang="en">Gulyaeva P. S. Large language models use in the context of rulemaking digitalization. The Academic Journal of Moscow City University. Series &quot;Legal Sciences&quot;, 2023, (3): 126–137. (In Russ.) https://doi.org/10.25688/2076-9113.2023.51.3.11</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B5">
    <label>5.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Зырянова И. Н., Чернавский А. С. Генеративные языковые модели и феномен антиантропоцентризма – новые перспективы лингвистической парадигмы «posthumano» и «общего/сильного» ИИ. Известия Байкальского государственного университета. 2024. Т. 34. № 1. C. 144–152. https://doi.org/10.17150/2500-2759.2024.34(1).144-152</mixed-citation>
     <mixed-citation xml:lang="en">Ziryanova I. N., Chernavskiy A. S. Generative language patterns and the phenomenon of anti-anthropocentrism – new perspectives on the linguistic paradigm of &quot;posthumano&quot; and &quot;general/strong&quot; AI. Bulletin of Baikal State University, 2024, 34(1): 144–152. (In Russ.) https://doi.org/10.17150/2500-2759.2024.34(1).144-152</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B6">
    <label>6.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Козловский А. В., Мельник Я. Э., Волощук В. И. О подходе для автоматической генерации сюжетно связанного текста. Известия Тульского государственного университета. Технические науки. 2022. № 9. С. 160–167. https://elibrary.ru/dirfga</mixed-citation>
     <mixed-citation xml:lang="en">Kozlovsky A. V., Melnik Ya. E., Voloshchuk V. I. On the approach for automatic generation of narrative-linked text. Izvestiya Tula State University, 2022, (9): 160–167. (In Russ.) https://elibrary.ru/dirfga</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B7">
    <label>7.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Кривошеев Н. А., Иванова Ю. А., Спицын В. Г. Автоматическая генерация коротких текстов на основе применения нейронных сетей LSTM и SeqGAN. Вестник Томского государственного университета. Управление, вычислительная техника и информатика. 2021. № 57. С. 118–130. https://doi.org/10.17223/19988605/57/13</mixed-citation>
     <mixed-citation xml:lang="en">Krivosheev N. A., Ivanova Yu. A., Spitsyn V. G. Automatic generation of short texts based on the use of neural networks LSTM and SecGAN. Tomsk State University Journal of Control and Computer Science, 2021, (57): 118–130. (In Russ.) https://doi.org/10.17223/19988605/57/13</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B8">
    <label>8.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Огорелков И. В. Особенности диагностического автороведческого исследования анонимного документа на основании признаков, характеризующих имитацию авторства. Русский язык за рубежом. 2020. № 1. С. 66–69. https://elibrary.ru/seglhn</mixed-citation>
     <mixed-citation xml:lang="en">Ogorelkov I. V. Peculiarities of the diagnostic author’s study of anonymous document on the basis of signs, characterizing the authority imitation. Russkii iazyk za rubezhom, 2020, (1): 66–69. (In Russ.) https://elibrary.ru/seglhn</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B9">
    <label>9.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Рубцова И. И., Ермолова Е. И., Безрукова А. И., Огорелков И. В. Установление факта маскировки письменной речи в тексте анонимного документа: методические рекомендации. М.: ЭКЦ МВД России, 2013. 64 с.</mixed-citation>
     <mixed-citation xml:lang="en">Rubtsova I. I., Ermolova E. I., Bezrukova A. I., Ogorelkov I. V. Establishing the fact of masking written speech in the text of an anonymous document: Methodological recommendations. Moscow: EKTS MVD Rossii, 2013, 64. (In Russ.)</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B10">
    <label>10.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Солдаткина Я. В., Чернавский А. С. Генеративные языковые модели как актуальный феномен медиакультуры в начале XXI века. Наука и школа. 2023. № 4. С. 42–54. https://doi.org/10.31862/1819-463X-2023-4-44-56</mixed-citation>
     <mixed-citation xml:lang="en">Soldatkina Ya. V., Chernavskiy A. S. Generative language models as a crucial phenomenon of media culture at the beginning of the XXI century. Science and School, 2023, (4): 42–54. (In Russ.) https://doi.org/10.31862/1819-463X-2023-4-44-56</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B11">
    <label>11.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Стецик М. Союз лингвистики и промпт-инжиниринга: лингвистические особенности запросов к нейросети. Vilnius University Open Series. 2024. С. 155–166. https://doi.org/10.15388/SV-I-II.2024.14</mixed-citation>
     <mixed-citation xml:lang="en">Stetsyk M. The union of linguistics and prompt engineering: Linguistic features of prompts to neural networs. Vilnius University Open Series, 2024: 155–166. (In Russ.) https://doi.org/10.15388/SV-I-II.2024.14</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B12">
    <label>12.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Тельпов Р. Е., Ларцина С. В. Типовые различия естественных и сгенерированных нейронной сетью текстов в квантитативном аспекте. Научный диалог. 2023. Т. 12. № 7. С. 47–65. https://doi.org/10.24224/2227-1295-2023-12-7-47-65</mixed-citation>
     <mixed-citation xml:lang="en">Telpov R. E., Lartsina S. V. Typological differences of natural and neural network-generated texts in a quantitative aspect. Nauchnyi dialog, 2023, 12(7): 258–269. (In Russ.) https://doi.org/10.24224/2227-1295-2023-12-7-47-65</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B13">
    <label>13.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Фищева И. Н., Пескишева Т. А., Головизнина В. С., Котельников Е. В. Метод классификации аспектов аргументации в русскоязычных текстах. Программные системы: теория и приложения. 2023. Т. 14. № 4. С. 25–45. https://doi.org/10.25209/2079-3316-2023-14-4-25-45</mixed-citation>
     <mixed-citation xml:lang="en">Fishcheva I. N., Peskisheva T. A., Goloviznina V. S., Kotelnikov E. V. A method for classifying aspects of argumentation in Russian-language texts. Program systems: Theory and applications, 2023, 14(4): 23–45. (In Russ.) https://doi.org/10.25209/2079-3316-2023-14-4-25-45</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B14">
    <label>14.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Floridi L., Chiriatti M. GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 2020, 30(4): 681–694. https://doi.org/10.1007/s11023-020-09548-1</mixed-citation>
     <mixed-citation xml:lang="en">Floridi L., Chiriatti M. GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 2020, 30(4): 681–694. https://doi.org/10.1007/s11023-020-09548-1</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B15">
    <label>15.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Jurafsky D., Martin J. H. Speech and Language Processing. Pearson Prentice Hall, 2009, 988.</mixed-citation>
     <mixed-citation xml:lang="en">Jurafsky D., Martin J. H. Speech and Language Processing. Pearson Prentice Hall, 2009, 988.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B16">
    <label>16.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Maynez J., Narayan S., Bohnet B., Mcdonald R. On faithfulness and factuality in abstractive summarization. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020, 1906–1919. https://doi.org/10.18653/v1/2020.acl-main.173</mixed-citation>
     <mixed-citation xml:lang="en">Maynez J., Narayan S., Bohnet B., Mcdonald R. On faithfulness and factuality in abstractive summarization. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020, 1906–1919. https://doi.org/10.18653/v1/2020.acl-main.173</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B17">
    <label>17.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Mikhaylovskiy N., Churilov I. Autocorrelations decay in texts and applicability limits of language models. Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference &quot;Dialogue&quot;, 2023, (22), 350–360. https://doi.org/10.48550/arXiv.2305.06615</mixed-citation>
     <mixed-citation xml:lang="en">Mikhaylovskiy N., Churilov I. Autocorrelations decay in texts and applicability limits of language models. Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference &quot;Dialogue&quot;, 2023, (22), 350–360. https://doi.org/10.48550/arXiv.2305.06615</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B18">
    <label>18.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Ostyakova L., Petukhova K., Smilga V., Zharikova D. Linguistic annotation generation with ChatGPT: A synthetic dataset of speech functions for discourse annotation of casual conversations. Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference &quot;Dialogue&quot;, 2023, (22), 386–403.</mixed-citation>
     <mixed-citation xml:lang="en">Ostyakova L., Petukhova K., Smilga V., Zharikova D. Linguistic annotation generation with ChatGPT: A synthetic dataset of speech functions for discourse annotation of casual conversations. Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference &quot;Dialogue&quot;, 2023, (22), 386–403.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B19">
    <label>19.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Radford A., Narasimhan K., Salimans T., Sutskever I. Improving language understanding by generative pre-training. OpenAI, 2018. URL: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf (accessed 10 Mar 2025).</mixed-citation>
     <mixed-citation xml:lang="en">Radford A., Narasimhan K., Salimans T., Sutskever I. Improving language understanding by generative pre-training. OpenAI, 2018. URL: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf (accessed 10 Mar 2025).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B20">
    <label>20.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Sutskever I., Vinyals O., Le Q. V. Sequence to sequence learning with neural networks. Advances in Neural Information Processing Systems 27, 2014, 3104–3112.</mixed-citation>
     <mixed-citation xml:lang="en">Sutskever I., Vinyals O., Le Q. V. Sequence to sequence learning with neural networks. Advances in Neural Information Processing Systems 27, 2014, 3104–3112.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B21">
    <label>21.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A. N., Kaiser L., Polosukhin I. Attention is all you need. Advances in Neural Information Processing Systems 30, 2017, 5998–6008.</mixed-citation>
     <mixed-citation xml:lang="en">Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A. N., Kaiser L., Polosukhin I. Attention is all you need. Advances in Neural Information Processing Systems 30, 2017, 5998–6008.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B22">
    <label>22.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Zhang C., Bengio S., Hardt M., Recht B., Vinyals O. Understanding deep learning (still) requires rethinking generalization. Communications of the ACM, 2021, 64(3): 107–115. https://doi.org/10.1145/3446776</mixed-citation>
     <mixed-citation xml:lang="en">Zhang C., Bengio S., Hardt M., Recht B., Vinyals O. Understanding deep learning (still) requires rethinking generalization. Communications of the ACM, 2021, 64(3): 107–115. https://doi.org/10.1145/3446776</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B23">
    <label>23.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Zupan J., Gasteiger J. Neural networks: A new method for solving chemical problems or just a passing phase? Analytica Chimica Acta, 1991, 248(1): 1–30. https://doi.org/10.1016/S0003-2670(00)80865-X</mixed-citation>
     <mixed-citation xml:lang="en">Zupan J., Gasteiger J. Neural networks: A new method for solving chemical problems or just a passing phase? Analytica Chimica Acta, 1991, 248(1): 1–30. https://doi.org/10.1016/S0003-2670(00)80865-X</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
