• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Запрещать нельзя использовать

Авторская колонка Алёны Нефёдовой

Иллюстрация из книги Аммаара Реши, созданная с помощью нейросети Midjourney / Madebyai

Нефедова Алёна Игоревна

доцент, старший научный сотрудник Института статистических исследований и экономики знаний

В академической среде сейчас только и разговоров, что об умном чат-боте GPT[1], – то и дело разгораются споры о том, что это значит для образования и науки и что нам со всем этим теперь делать. Обсуждение началось с шумной истории, когда выпускник РГГУ признался в том, что написал свой диплом с помощью чат-бота меньше чем за сутки[2]. Сразу же развернулась массовая дискуссия о том, как трактовать этот поступок. С одной стороны баррикад раздавались тревожные голоса, которые склонны считать это несамостоятельной работой, а следовательно, неудовлетворительной в качестве итоговой. Высказывались даже предложения запретить использование чата в учебе. С другой стороны слышались рассуждения о том, что в написанной таким способом работе намного больше самостоятельного труда по сравнению с купленными дипломами, которые уже давно стали обыденной практикой в России.

Вместе с тем эта дискуссия выходит далеко за рамки образовательного процесса. Уже сейчас существуют многочисленные примеры, когда с использованием ChatGPT решаются совершенно немыслимые до этого задачи. Далее в эссе я бы хотела порассуждать о последствиях использования ChatGPT для решения исследовательских вопросов[3].

К очевидным преимуществам использования чата в научных целях можно отнести как минимум два обстоятельства. Во-первых, значительно улучшаются и расширяются возможности поиска и систематизации информации. Теперь становится намного проще искать опубликованные статьи на заданную тему. Кроме того, бот сможет за вас даже написать систематизированный обзор. Не все исследователи получают удовольствие от подготовки раздела «Обзор литературы», так что для них это хорошая новость.


[1] Chat Generative Pre-trained Transformer, то есть «обученный робот-трансформер для поддержания разговора».

[3] Про влияние ChatGPT на сферу образования в интервью другому корпоративному изданию (HSE Daily) рассказала главный эксперт Лаборатории проектирования содержания образования Института образования НИУ ВШЭ Мария Добрякова. URL: https://daily.hse.ru/post/786.

Zac Wolff / Unsplash

Во-вторых, чат может выполнить широкий пласт других как творческих, так и рутинных исследовательских задач, сильно сэкономив время и усилия ученого. Например, его можно попросить проверить текст или код на ошибки, упростить сложный текст, подготовить план для семинара или структуру исследовательской статьи на заданную тему, сгенерировать исследовательские вопросы и даже сделать набросок мотивационного письма или заявки на грант (отличная новость для самых мотивированных!). Например, я попросила бот подготовить несколько вопросов для экспертного интервью и пришла в восторг, так как мы совпали с искусственным интеллектом в идеях на 50%.

Среди угроз я бы выделила следующие. Во-первых, внедрение и использование чат-ботов будет серьезным образом усиливать существующее гендерное, цифровое и прочее неравенство в науке. Одними из первых этот инструмент освоят уже продвинутые в цифровых навыках исследователи, что будет вести к усилению уже накопленных ранее преимуществ (так называемый эффект Матфея). Например, эффективное использование чат-бота может в разы увеличить производительность при подготовке статей, которые дальше будут уже засчитываться в резюме, что будет приводить к получению новых грантов и так далее… Неравенство негативно сказывается на научной сфере, так как именно здесь важна открытость, взаимообмен знаниями и равный доступ к исследовательскому оборудованию и базам данных. (Кстати, доступ к чат-боту из России фактически закрыт, и требуется выполнить неочевидные танцы с бубнами, чтобы его протестировать.)

Во-вторых, угроза потенциально масштабного применения ChatGPT в науке состоит в том, что эта практика ложится на неоднозначный этический контекст. Известно, что в России (да и во всем мире тоже) существует массовая практика псевдопубликаций, которые не несут в себе никакого теоретического или практического смысла (обзору таких публикаций посвящен даже отдельный телеграм-канал «КРИНЖ»[1]). Кроме псевдонауки, широко распространена также и практика плагиата. Так, около 20% опрошенных в рамках Мониторинга экономики образования российских ученых в 2022 году согласились с тем, что в их области науки скорее или очень распространена практика использования опубликованных и неопубликованных идей или фрагментов текста без отсылки к первоисточнику. В отличие от методик по поиску плагиата, на данный момент не существует надежных и проверенных инструментов, чтобы определить, написал текст человек или искусственный интеллект (хотя такие разработки уже активно ведутся). Таким образом, у авторов, склонных к мошенничеству, не остается оснований для сомнений или опасений по поводу санкций из-за использования неоплачиваемого и необозначенного труда бота в своих работах, что приведет к наращиванию объема подобных нечестных публикаций.

Псевдонаучная публикация, входящая в РИНЦ
КРИНЖ / Telegram

На данный момент по поводу использования чат-бота в написании статей мнения разошлись даже у двух самых авторитетных научных журналов – Nature и Science. Первый разрешает указать использование бота при написании текста в разделе «Благодарности», а второй категорически не разрешает использовать его в каком-либо виде для публикаций[1]. В качестве одного из недавних ярких, но неоднозначных примеров на тему сотворчества с искусственным интеллектом можно привести следующее: дизайнер Аммаар Реши (Ammaar Reshi) за два дня подготовил и издал книгу для детей, где текст написал ChatGPT, а иллюстрации нарисовала нейросеть Midjourney. Опубликованное «на троих» творчество сейчас продается на Amazon (бумажная версия с твердой обложкой стоит 38 долларов, с мягкой – 9 долларов)[2]. Правда, отзывы самые противоречивые: половина читателей поставили отличную оценку и столько же – единицу.

Третья проблема состоит в том, что даже сами разработчики бота признают, что он может ошибаться, выдавать неточные, неполные или неправильные ответы. Если уходить в размышлениях дальше, то кто возьмет на себя ответственность за ошибки, которые бот сделает в расчетах для фармакологических или прочих научных исследований, связанных с риском для жизни или здоровьем человека? Уже сейчас активно развиваются исследования на тему правового регулирования беспилотного транспорта, но совсем скоро такие же решения понадобятся и во всех научных исследованиях, выполненных с помощью ChatGPT.

В таких условиях «один лишь способ есть нам справиться с судьбой», а именно активно осваивать этот инструмент, обращая его поразительные умения себе на пользу. Параллельно нужно совместными усилиями научного сообщества развивать этические кодексы и инструкции по использованию чат-бота в исследовательской среде.

Нужно лелеять надежду, что в будущем профессия ученого не канет в небытие, так как разработчики утверждают, что бот пока не способен на новые открытия и изобретения и что создание оригинальных идей на основе сложных данных и концепций все равно пока что остается прерогативой человека. Когда мы ожидали, что будут «вкалывать роботы, а не человек», то мы совершенно не предполагали, что они и «конфеты за нас есть будут». Возможно, что даже сейчас вы только что прочитали текст, написанный машиной (шутка, на самом деле нет).

13 марта, 2023 г.