Ученые Самарского университета разработали инновационную модель для определения авторства текстовых материалов, позволяющую точно установить, какая часть работы выполнена искусственным интеллектом. Результаты этого важного исследования опубликованы в научном журнале “Семиотические исследования”.
Активное внедрение нейросетей в научную деятельность ставит перед мировым сообществом острый вопрос: могут ли системы искусственного интеллекта считаться полноценными соавторами научных публикаций? Социологи Самарского национального исследовательского университета имени академика С.П. Королева отмечают, что в международной практике уже зафиксированы случаи, когда ИИ указывается среди авторов статей, а иногда даже как их единственный создатель.
Специалисты вуза провели глубокий анализ процесса создания текстов с использованием ИИ, а также изучили подобные практики в крупнейших международных базах данных — Web of Science и Scopus. В ходе исследования было выявлено четыре статьи, в которых ChatGPT был указан как автор, причем в двух случаях — как единоличный. В базе Scopus также обнаружены минимум две публикации с ИИ-соавторством; примечательно, что в одном из этих случаев чат-бот был позднее исключен из списка авторов по требованию редакции журнала.
Ученые пришли к выводу, что традиционное понимание авторства требует пересмотра в условиях быстрого развития генеративного искусственного интеллекта. В новой парадигме человек выступает не просто как творец, но и как куратор, редактор и интерпретатор созданного контента.
Наталья Масленкова, доцент кафедры социологии и культурологии Самарского университета, прокомментировала: “Мы пришли к выводу, что такие работы обладают гибридной природой. Этот подход открывает путь к новым моделям `распределенного` и `переплетенного` авторства, где ИИ становится участником творческого процесса, но конечная ответственность за содержание остается за `исследователем-человеком`”.
Особое внимание исследователи уделили этическим проблемам, связанным с использованием генеративного интеллекта для написания научных текстов. Существуют риски академического мошенничества, например, когда автор выдает полностью сгенерированное ИИ содержание за свое, не выполняя роли редактора или ответственного автора.
Масленкова подчеркнула: “Наши выводы могут лечь в основу этических и правовых норм, повышающих прозрачность использования ИИ и предотвращающих злоупотребления. Это особенно важно для образовательной, научной и медийной сфер, где возникает вопрос, кто несет ответственность за контент, созданный с участием ИИ”.
По словам специалистов университета, новизна их работы заключается в комплексном подходе, который сочетает философский, социокультурный и правовой анализ, выходя за рамки исключительно юридической оценки. Исследователи связывают современные практики взаимодействия с ИИ с теориями распределенного и сетевого авторства, что позволяет глубже осмыслить трансформацию роли человека и машины в процессе создания текстов.
“Одна из точек зрения приводит аргументы в пользу того, что ИИ — это `стохастический попугай`, имитирующий человеческую речь на основе статистики. Его `субъектность` пока социальный конструкт, отражающий коллективный вклад разработчиков и пользователей”, — добавила Наталья Масленкова.
На текущем этапе перед учеными стоит задача разработки конкретных рекомендаций по прозрачному и ответственному использованию генеративных моделей в образовании и научных публикациях. Также планируется дальнейшее изучение того, как меняются общественные представления об авторстве у различных социальных групп по мере широкого распространения искусственного интеллекта.