У меня такое предложение по улучшению алгоритма проверки.
Я обратил внимание на следующий момент:
Если на проверяемой странице находится стандартная календарная сетка , например :
то программа проходит по сотне сайтов и находит совпадение с каждым сайтом , что явно уменьшает результирующий процент уникальности.
Аналогичная ситуация обстоит с так называемыми архивными ссылками , например :
Ясно дело - что совпадение такого цифрового ряда никак нельзя считать пиратством / неуникальностью !!!
Можно ли добавить в алгоритм программы пропуска таких стандартных цифровых блоков -
чтобы проверять на уникальность чисто текст , а не цифровые ряды календарей !!!
Или я ошибаюсь и это уже заложено в алгоритме ?
Хотелось бы услышать ответ от разработчиков такой замечательной программы !
Однако я хотел бы заметить , что я наблюдаю обратное. Проверяю ресурс на уникальность , прога показывает , что совпадение по 7 % идет с целой кучей сайтов , однако при ручном заходе на эти сайты поиск по словам не находит одинакового текста , зато календарные сетки на главной странице у таких сайтов с 7 % совпадений у всех есть.
Можно проверять одни тексты, а не весь ресурс полностью. И не будет никаких проблем с календарными сетками и прочими стандартными и нестандартными блоками.
О включении "неявной" логики в работу программы мы подумаем в будущих версиях. На сегодняшний день Вы можете самостоятельно удалить смущающие Вас фрагменты исходного документа.
То есть - насколько я понимаю - пока Вы предлагаете делать так : 1 - Сканируем наш сайт 2 - Удаляем вручную все цифровые сетки 3 - Запускаем сканирование на уникальность
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено. Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186