Клиент как-то спросил: «ИИ-детектор показал, что текст сгенерировала нейросеть. Это правда?»
Текст был написан вручную, под задачу, с примерами и логикой. Вопрос озадачил и стал поводом выяснить, почему возникают сомнения.
В статье разберемся, как устроены ИИ-детекторы текста, могут ли они ошибаться и что нужно учитывать в работе с нейросетями. Это небольшое исследование пригодится, если вы заказываете тексты, пишете сами или работаете с копирайтерами. А если уже проверяете тексты с помощью детекторов — тем более.
Читать статью можно по порядку или выборочно: каждый раздел — ответ на конкретный популярный вопрос. В конце найдете рекомендацию из пяти пунктов.
ИИ-детекторы — это алгоритмы, которые помогают определить, написал текст человек или искусственный интеллект. Вердикт ИИ-детекторы выносят на базе своей оценки. Кажется, что это простой способ найти правду. Но прежде чем доверять результатам, нужно разобраться, как они устроены и что оценивают.
В последние полтора года сгенерированных текстов стало больше в разы. ChatGPT, Claude, DeepSeek и десятки других нейросетей генерируют их быстро и часто бесплатно. Вместе с удобством пришли и сомнения: если нейросеть выдает такой же результат, зачем платить автору? Да и всегда ли автор пишет сам?
На этом фоне компании начали проверять тексты. Это неплохо само по себе, печально другое. Заказчик теперь открывает ИИ-детектор не для того, чтобы оценить содержание, а чтобы понять: писал человек или нейросеть. Смысл уходит на второй план. Главное — происхождение. Если текст кажется машинным, его сразу считают хуже.
На практике за этим стоит вполне объяснимый страх. Компания не хочет платить за то, что можно получить бесплатно. Отсюда — спрос на инструмент, который даст ответ на вопрос: «Кто это написал?»
ИИ-детекторы появились именно на этой волне. Некоторые сервисы заявляют: «Проверка поможет убедиться в честности исполнителя». Но это не про качество текста, а про тревогу и стремление контролировать. Только инструмент выбрали не тот — вот в чем истинная проблема. Детекторы не отличают смысл, не понимают задачи текста и не могут определить, кто его написал.
Как бы то ни было, заказчики продолжают пользоваться ИИ-детекторами в надежде упростить поиски ответа на сложный вопрос: «Хороший ли перед нами текст?»
Детектор подается как инструмент объективной оценки. Но это продукт, у которого есть продавец, цена и бизнес-модель. В основе этой модели — постоянный спрос на проверки и высокий уровень тревожности у заказчика. Вся система работает в интересах тех, кто ее продает, а не тех, кто пишет, проверяет или заказывает тексты.
Чаще всего сервисы работают по подписке: чем больше проверок, тем выше платеж. Дополнительно продаются апгрейды — инструменты переписывания: нейросеть, которая меняет текст так, чтобы он прошел тот самый детектор.
Все замыкается в одном сервисе: автор пишет текст, заказчик проверяет, алгоритм находит «риски», а система тут же предлагает переделку. Это не контроль качества — это платная попытка чувствовать себя спокойнее.
Чем больше сомнений — тем активнее заказчики пользуются сервисом... и тем богаче владельцы детекторов. Поэтому разработчикам выгодно, чтобы тревога у бизнеса сохранялась. Их задача — не решить проблему, а поддерживать ощущение, что без детекторов никак.
Это напоминает «охоту на ведьм»: доказать невиновность невозможно. Даже если текст полностью ручной, но детектор показал «подозрение» — сомнение уже возникло. А чтобы его развеять, снова нужен… детектор.
Детекторы не «читают» текст, не анализируют идею, логику и аргументацию. Их задача — определить вероятность того, что текст сгенерировала нейросеть. Алгоритмы учитывают лишь статистические признаки:
Чем «ровнее» текст — тем выше шанс, что ИИ-детекторы посчитают его машинным. При этом ни тема, ни контекст, ни качество работы с источниками не учитываются: анализируется не смысл, а паттерн. Один и тот же текст может получить разные оценки в зависимости от сервиса. Впрочем, лучше показать.
Для эксперимента я сначала сгенерировал в Chat GPT текст объемом 1236 знаков.
Затем проверил текст в пяти популярных ИИ-детекторах — и вот результаты.
Zerogpt — 0% «вероятности ИИ».
Smodin — 0% «вероятности ИИ».
PR-CY — 40% «вероятности ИИ».
Neuralwriter — 20% «вероятности ИИ».
Retext — 0% «вероятности ИИ».
Как видите, оценки разных ИИ-детекторов серьезно расходятся. Детекторы используют разные алгоритмы, они обучены на разных данных, и в результате рассчитывают «процент ИИ» по собственным шкалам. Объективности нет.
Из-за низкой точности результатов OpenAI отказалась от своего AI Text Classifier. В блоге компании прямо сказано: «Наш классификатор правильно определяет 26% текстов, написанных искусственным интеллектом (истинно положительные результаты), как «вероятно, написанные искусственным интеллектом», при этом в 9% случаев ошибочно помечает тексты, написанные человеком, как написанные искусственным интеллектом (ложноположительные результаты)».
Если аргументов все еще мало, бонусный скриншот. Чтобы показать, насколько условны оценки детекторов, возьмем текст из офлайн-эпохи. Ниже — результаты проверки фрагмента из книги Игоря Манна «Маркетинг без бюджета. 50 работающих инструментов» 2013 года. Очевидно, что этот текст написан задолго до появления нейросетей, но детектор так не считает: его оценка — «37% вероятности ИИ».
Поэтому не удивляйтесь, если аккуратный, хорошо структурированный текст получает «подозрение на ИИ». Алгоритм смотрит на форму. И если вы пишете просто и логично — для него это уже сигнал. Но не подгоняйте стиль под ожидания алгоритма, важно, чтобы читатель понимал, о чем речь.
Нейросети научились писать по-разному: шаблонно, развернуто и с фактами. Люди — тоже. Одни авторы используют нейросеть как черновик, другие — как подсказку, третьи — пишут вручную, но с опорой на старые тексты. Где проходит граница?
Даже если текст полностью сгенерирован, автор может внести правки, добавить опыт, перестроить структуру. А может быть, наоборот: текст написан от руки, но выглядит слишком «ровным» — и попадает под подозрение. Детектор не может понять, кто принимал решение: алгоритм или человек. Он просто смотрит на форму.
Попытка оценить авторство по статистическим признакам — тупиковая. С каждым обновлением нейросети становятся гибче, а детекторы — все больше ориентируются на устаревшие паттерны. Получается, инструмент проверяет не автора, а стиль. И делает это без контекста.
Детекторы не решают ту задачу, на которую их рассчитывают пользователи. Они не определяют, кто писал текст. И не помогают понять, насколько он хорош. Все, что они делают — дают ощущение контроля. Но не сам контроль.
Проверить текст — просто. Сложнее понять, что делать с результатом. В этой части статьи расскажу о том, как заказчикам не отказаться от работающего текста из-за трудностей проверки и сохранить доверие к исполнителю. Выстроить процесс, в котором главное смысл, а не цифры, — реально.
Когда тексты начинают проверять через детекторы, фокус смещается. Вместо задачи и смысла оценивается «процент человечности». Последствия:
Автору приходится оправдываться, переделывать, терять время — даже если текст решает задачу. Иногда подрядчика просто меняют. Кажется, что перемена к лучшему, ведь текст этого автора «не прошел проверку», по факту — потеряли рабочий текст, время и копирайтера.
Проблема в том, что решения начинают принимать на основе инструмента, который не показывает ничего надежного. Лучше смотрите не на способ написания текста, а результат. Читатель не думает, использовал ли автор нейросеть. Он спрашивает: мне понятно, полезно, как я могу это применить? Ответ на эти вопросы и определяет ценность текста.
Нейросеть — такой же инструмент, как орфографический редактор. Она может ускорить работу, но не берет на себя смысл и ответственность. Решения все равно принимает человек.
Автор — это тот, кто подписывается под текстом и несет за него ответственность. Неважно, как он к этому пришел: с помощью нейросети или без.
Критерий один — результат. Все остальное — вторично.
Хороший текст начинается не с инструмента, а с мышления. Сначала — разобраться в теме, определить главное, найти источники, проверить факты. Только потом — формулировка.
Текст — это отражение того, как думал автор. Что он понял, как связал, к чему пришел. Если текст работает — этот путь пройден. Если нет — неважно, как он был написан.
Нейросеть может ускорить процесс. Но она не понимает задачи и не чувствует контекста. Когда автор полностью передает ей инициативу — он теряет главное: способность думать, обобщать и выделять важное.
Мышление — это и есть ключевая компетенция. Не просто знание темы, а умение с ней работать. Именно это отличает автора от набора промптов.
Инструмент может быть любым. А за смысл отвечает только человек.
Хороший текст видно сразу. Он читается легко и удерживает внимание. Для этого не нужен детектор — достаточно задать пять вопросов:
ИИ-детектор работает по шаблону. Вы оцениваете по смыслу. И это всегда надежнее.
Некоторые заказчики хотят быть уверены, что текст написан «вручную», но на практике это невозможно проверить. Зато до старта можно и нужно честно обсудить формат работы.
Если вам принципиально, чтобы текст не был сгенерирован — скажите об этом вначале. Обсудите, допустим ли черновик от нейросети и какой объем участия ИИ приемлем. Это не дает гарантий, но снижает риск недопонимания. Взаимное уважение работает надежнее любого детектора.
Если вам нужны тексты, которые помогают продавать продукт, и прозрачное сотрудничество, нажимайте кнопку «Обсудить проект» в правом нижнем углу страницы — и мы с вами свяжемся.
Кстати, вот результаты проверки этой статьи.