Вы наверняка уже слышали, что поисковые системы особенно ценят уникальные тексты, и потому, создавая свой сайт или какой-либо интернет-проект, искренне намерены наполнять его только оригинальными произведениями мастеров пера. Интуитивно вы уже понимаете, что уникальный текст – это текст, написанный с нуля и непохожий на другие, то есть он такой один. Без копий, без повторений. Когда вы пишете текст сами, вы уверены, что ваш текст уникален. Однако каково же может быть ваше удивление, когда вы вдруг обнаружите, что текст, который вы сами сочинили, отнюдь не уникален с точки зрения поисковых систем. Простой пример. Вы придумали название статьи, забиваете его в поисковик и вдруг видите, что его до вас уже придумали…
На практике уникальность текстов проверяется с помощью специальных онлайн-сервисов или устанавливаемых на компьютере программ, которые работают по принципу поисковых систем. Ими пользуются и редактора сайтов, и студии интернет-сайтов, и сами авторы. Однако, оказалось, ничего непогрешимого нет, и идеальных приложений по оценке уникальности текстов, тоже. Так, взяв одну давно опубликованную на проекте статью (а следовательно, уже имеющую немало дубликатов), я решила проверить, насколько сходными/различными окажутся результаты. Так, сервисы copyscape показал 9 копий, miratools обнаружил 39 дубликатов, istio.com - 23 копии, программа DСF – более 50 результатов. Я заинтересовалась, почему столь различен результат.
Если объяснять простыми словами, то с точки зрения роботов уникальным будет тот текст, в котором порядок слов не совпадает ни с одним из имеющихся в арсенале вариантов. Именно поэтому одним из самых простых и быстрых способов сделать текст оригинальным является перестановка предложений или замена некоторых слов синонимами. И там, где человек заметит явный плагиат, робот, возможно, одобрительно пройдет мимо.
Уникальность текста проверяется поисковыми системами на основе сложных алгоритмов, смысл работы которых заключается в том, чтобы проанализировать разбитые на кусочки цепочки слов проверяемых текстов и сравнить полученные результаты. Чем короче разбивка текста на отрезки, тем точнее будет результат. В отрезках из пяти-шести слов, слова преобразуются в двоичный код. Во время проверки каждому участку текста присваивается некое уникальное число, и результат вычисляется по заданному алгоритму в виде контрольной суммы. У разных текстов контрольные числа не могут совпадать. Причем, в процессе подобного «сканирования» текста, конечное слово одного отрезка является первым для нового отрезка, и следовательно, ни одно слово не потеряется. Этот метод называют методом шинглов. Чем короче будут проверяемые отрезки текста, тем точнее результат. Обнаружатся не только точные копии вашего текста, но и его «легкие» переделки.
Метод пассажей предполагает разбивку текста на более крупные участки: проверка идет уже не на уровне словосочетаний, а на уровне предложений. Например, если из десяти слов одного предложения пять слов совпадут с другим предложением, его уникальность будет оценена в 50 процентов.
В основе большинства приложений, созданных для проверки уникальности текста, лежит метод шинглов. Однако, наряду с высокой эффективностью поиска дубликатов, у метода есть свой минус. Надо быть очень осторожным с подобными приложениями, если вы, например, используете цитаты: тексты в кавычках могут значительно уменьшить показатель уникальности текста. То же касается и различных распространенных выражений: поговорки, пословицы, фразеологические обороты, придавая тексту оригинальность, могут существенно поубавить его уникальность. Поэтому не стоит удивляться, если ваш собственноручно написанный и оригинальный текст, вдруг забракует программа: ей не до изысков стиля, все дело – в математике.