Почему при проверке целого текста и отдельных его фрагментов получается разная уникальность?

Функционально проверка большого и маленького по объему текста ничем не отличаются, но нужно учитывать, что всегда задан минимальный порог совпадений, который будет учтен.

Например, если учитываются совпадения от 1%, то неуникальная фраза из 5 слов будет учтена в тексте на 100 слов (5% неуникальности), но не будет учтена в тексте на 1000 слов (0,5% неуникальности).

Поэтому если разделить текст размером 10 000 знаков на 5 текстов по 2 000 знаков, уникальность каждого фрагмента может оказаться ниже, чем всего текста.

Разделять текст на фрагменты имеет смысл при проверке очень больших текстов (более 100 000 знаков), когда большое количество запросов может привести к блокировкам поисковых систем и некорректному результату.

При этом разделять их нужно не на равные части, а по смыслу - на разделы, главы, параграфы и т. п.