Сразу напишу наперед, да, да это типа Фотошоп, но на самом деле это обычный zip архив открытый обычным winrar’ом в обычном виндовсе, таких моментов с двойными файлами несколько, но не очень много, все связаны с папкой кеширования файлов и даже когда я напрямую пытался скопирнуть сайт по фтп, тоже они всплывали, т.к. винда жаловалась что типа файл есть нужно перезаписать, я еще думал как перезаписать я в пустую папку копирую, а оказывается есть файлы с одинаковым названием, ладно с разными большими и маленькими символами это понятно, но с абсолютно одинаковыми это сюрприз. Я думаю это связано с работой кэша, может файл один ток создался и другой не успел удалится и т.п. хз вот такая странная фигня, я думал может помимо разного регистра есть еще какие способы одинаковые имена задавать файлам, но походу нет.
Я с вами согласен, я посмотрел на сервере, там нет этих одинаковых файлов, которые есть в архиве, но я отвечаю за базар что у меня в zip архиве есть папка с двумя файлами с абсолютно одинаковыми именами, прямо перед глазами, и я согласен что такого не бывает и что это только одному богу известно.
Короче я думаю это происходит какой-то хитро-глючный баг при zip архивировании сайта на сервере на живую при работе кеширующего плагина.
Прикинь так я тоже :), НО:
Открываю я zip архив а-ля бэкап сайта, WinRar’ом, сам zip архив был сделан на сервере в Linux’е стандартной утилитой zip, и там есть директория, в которой два файла с одинаковым названием index.html все символы в одном маленьком регистре, немного разного размера, вот что это, при разархивации архива в Windows немножко недоумевает как так, я сам не знаю, как так, сами файлы создаются плагином кеширования.
Лично я не использую блокировщики рекламы и более того если мне понравилась статья или сайт, я всегда поддержу, кликнув по рекламе (естественно так как будто бы я в ней заинтересован), веб-мастера, владельцы сайтов, Landlord’ы мира онлайна ведь нас же уничтожают корпорации, сейчас почти никто не создает сайтов, все в соц.-сетях и телеграммах на ютубе, поддержите брата своего, солидарность, будьте нормальными пацанами :-), позор тем, кто использует блокировщики и не кликает по рекламе :-)
П.С.
Это влияет на основной запрос, тоесть включение страниц архива и пагинации. WP_Query и add_rewrite_rule тогда вообще не стоит использовать.
Для изменения основного запроса нужно использовать хук pre_get_posts, например кол-во записей на странице изменить и т.д.
Has_archive включен вернее значение соответствует названию произвольного типа записи, 'has_archive' => 'mycustomposttype'.
А, да и при построении цикла на основе WP_Query надо добавить свойство paged.
<?php $paged = (get_query_var('paged')) ? get_query_var('paged') : 1; ?>
<?php $recent_posts_posttype = new WP_Query(['post_type' => 'mycustomposttype', 'orderby' => 'date', 'posts_per_page' => 5, 'order' => 'DESC', 'paged' => $paged]); ?>
Пацаны, братва, девчонки, ребята всем спасибо за помощь, разобрался я с этим add_rewrite_rule, и в моем случае это будет так:
add_rewrite_rule( 'mycustomposttype/page/([0-9]+)/?$', 'index.php?post_type=mycustomposttype&paged=$matches[1]', 'top' );
Все работает и теперь нету ошибки 404, а ссылки остаются с нормальным видом, я так и не понял это типа вид редиректа такого или внутренняя фигня WordPress’а, но главное это работает, да и ладно.