Как оценивать уникальность текста в зависимости от процента совпадений?
Здравствуйте!
Вопрос к сеошникам, или просто к людям с опытом.
Мне Плагиатус показывает 47% совпадений по шинглу и ГАП - 3. Эти 47% совпадений не на одном-двух сайтах, а на большом количестве сайтов по 1-2 процента. Как оценить в данном случае степень актуальности текста? Назвать его "заимствованным" его с какого-то сайта я не могу - значительных совпадений с любым из выданных программой сайтов нет. Но при суммировании выходит что текст не уникальный. Как вы думаете, поисковые системы тоже так оценивают уникальность текста? Даже если совпадение с каждым сайтом в выборке - 1 процент ?
Нет ни малейшей необходимости проверять с такими настройками. Слишком много "случайных" совпадений. Не видя текста и сайта на который он пойдет особой конкретики не скажу. Но, высокая (чем выше, тем лучше) уникальность нужна для того, чтобы текст, размещенный на сайте, как можно дольше держал эту планку. Вполне достаточно проверять на 4 на 4. Но нюансов масса, и смотреть надо каждый конкретный случай в отдельности. Например, технические параметры прибора или отсылки на законы лучше закрывать от индексации. Но, все зависит от остального текста - и смотреть надо общую уникальность всей страницы, а не отдельно взятого куска. И помнить, что качество рерайта и уникальность это совершенно разные вещи. Не качественный рерайт, каким бы он не был уникальным лучше не использовать вообще.
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено. Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186