Издатели тысяч научных журналов запретили или ограничили использование продвинутого чат-бота, управляемого искусственным интеллектом, из-за опасений, что он может переполнить академическую литературу ошибочными и даже сфабрикованными исследованиями.

Из отчета: ChatGPT, беглый, но ненадежный чат-бот, разработанный OpenAI в Калифорнии, впечатлил или огорчил более миллиона пользователей, выкладывая стихи, рассказы, эссе и даже личные советы с момента его запуска в ноябре. Но в то время как чат-бот оказался огромным источником удовольствия — его попытка вытащить бутерброд с арахисовым маслом из видеомагнитофона в стиле Библии короля Иакова — один из заметных хитов — программа также может создавать фальшивые научные рефераты. которые достаточно убедительны, чтобы обмануть рецензентов. Более законное использование ChatGPT при подготовке статей уже привело к тому, что он стал соавтором нескольких статей.

Внезапное появление ChatGPT вызвало споры среди издателей. В четверг главный редактор ведущего американского журнала Science Холден Торп объявил об обновленной редакционной политике, запрещающей использование текста из ChatGPT и поясняющей, что программа не может быть указана в качестве автора. Ведущие научные журналы требуют от авторов подписать форму, подтверждающую, что они несут ответственность за свой вклад в работу. Поскольку ChatGPT не может этого сделать, он не может быть автором, говорит Торп. Но даже использование ChatGPT при подготовке статьи проблематично, считает он.

По его словам, ChatGPT допускает множество ошибок, которые могут попасть в литературу, и если ученые будут полагаться на программы ИИ для подготовки обзоров литературы или обобщения своих выводов, надлежащий контекст работы и глубокая проверка, которой заслуживают результаты, могут быть утеряны. «Это направление, противоположное тому, куда нам нужно идти», — сказал он. Аналогичные изменения внесли и другие издатели.

Во вторник Springer-Nature, которая публикует около 3000 журналов, обновила свои правила, заявив, что ChatGPT не может быть указан в качестве автора. Но издатель не запретил ChatGPT полностью. Инструмент и ему подобные можно использовать при подготовке статей при условии, что в рукописи будет раскрыта полная информация. Но издатель не запретил ChatGPT полностью. Инструмент и ему подобные можно использовать при подготовке статей при условии, что в рукописи будет раскрыта полная информация. Но издатель не запретил ChatGPT полностью. Инструмент и ему подобные можно использовать при подготовке статей при условии, что в рукописи будет раскрыта полная информация.