Скандал разгорелся после письма читателя, заметившего сходство рецензии Престона на роман «Наблюдая за ней» Жана-Батиста Андреа (опубликована в NYT 6 января 2026 года) с обзором Кристобель Кент в The Guardian в августе 2025 года, сообщает The Guardian. Параллели особенно бросаются в глаза в описании второстепенных персонажей: «ленивый макиавеллист Стефано», «трудолюбивый Витторио» и его «потусторонний брат-близнец Эммануэле».
После внутренней проверки Престон признал, что использовал ИИ для подготовки текста и не заметил фрагменты, фактически заимствованные из публикации в другом издании. В заявлении он отметил, что «сильно смущен» произошедшим и назвал это серьезной ошибкой.
В The New York Times подчеркнули, что как для штатных сотрудников, так и для внештатных авторов недопустимо полагаться на ИИ и включать в материалы чужие тексты без атрибуции. В редакции добавили, что это противоречит фундаментальным журналистским стандартам и принципам издания. По данным газеты, в предыдущих публикациях Престона нарушений обнаружено не было. Тем не менее контракт с ним был расторгнут.
Это не первый инцидент с ИИ в СМИ. Недавно Ars Technica уволила старшего репортера за вымышленные цитаты, сгенерированные нейросетью. Анализ The Atlantic показал, что в разделах мнений NYT и Wall Street Journal в шесть раз чаще встречается ИИ-текст, чем в новостях. Ранее читатели уже обвиняли колонку «Modern Love» NYT в «типичном ИИ-стиле».
Удивителен и сам факт попадания в эту ситуацию Престона – он состоявшийся писатель, автор шести романов, а также многочисленных публикаций в таких крупных изданиях, как NYT , The Guardian и Financial Times. Он также возглавляет консультационный отдел инвестиционной компании Man Group. Ранее в этом году он написал статью для сайта компании под названием «Пузырь ИИ: скрытые риски и возможности».
Ранее финские СМИ из-за ошибки ИИ назвали украинские дроны российскими, а «Википедия» запретила публикацию сгенерированных с помощью ИИ статей.