Откуда у вп html файлы? Может быть чпу html, тогда следует употреблять правильное название и не вводить людей в заблуждения. У html динамических страниц, также как и остальных динамических страниц с другим чпу форматом не обязательно должно быть настроено кеширование, потому что технически порой это довольно сложно сделать имея кучу динамического контента с редактированием, удалением и прочими функциями которые влияют на содержимое страницы. А о статике ввиде html файлов правильно сказала ladycharm - о ней заботится веб сервер как минимум он отдает last-modified.
Статью не читал, в двух словах что вы предлагаете для браузерного кеширования динамических страниц?
Подписки нужно отключить, иначе не понятно что вы ищите если знаете что проблема в подписках. Либо отключить способ нотификации по емайлу, но это каждый пользователь настраивает самостоятельно а параметры натификации хранятся в виде сериализованого массива поэтому с его измением могут возникнуть затруднения. Насколько помню есть модуль который переопределяет пользовательские настройки уведомления. А лучше это настройку выпилить из шаблона.
Скорее реврайтит на один скрипт.
RewriteCond %{SCRIPT_FILENAME} !-d
RewriteCond %{SCRIPT_FILENAME} !-f
RewriteCond %{REQUEST_RULE} !admin
RewriteRule ^(.*)$ ./get.php?out=$1
Дайте понять, возможность подписываться вы отключили, но это не помогает и пользователь все равно подписываются?... Тогда может быть вы не то или не все отключили раз все таки не помогает?
Второй вариант это cdata секция, там никакие символы не заменяются, а текст помещается в секцию cdata. У вас же простой текстовой элемент что похоже на первый пример.
Нет, это вы купили мерседес чтобы таскать картошку с дачи. У мерседеса свое предназначение у калины свое, и каждая по своему справляется своей задачи.
Может лучше в http заголовках? Бот получит заголовки, увидит запрет и не будет дальше трать свое время на разборе страницы?
Эти два запреты должны быть равнозначны по силе. Это гуглоиндусы напридумали свои стандарты, что запрещенные страницы в роботс появляются в выдаче. У роботса есть огромное преимущество по сравнению с мета-тегом, боту не нужно скачивать стотысяч страниц чтобы получить на них запрет. Так что я запрещаю в роботс, а те единичные ссылки которые каким либо образом появляются в выдаче в каждый четверг високосного года совершено меня не беспокоят.
Ну вот возьмем на примере ТСа.
/category/type-1/brand-1/color-white-black
Какой здесь будет канонический адрес? ТС хочет /category/type-1/brand-1/color-white. А правильно ли это? Ведь это два разных результата, в одном только белые сущности в другом белые и черные. Или может быть просто domen.ru/category/type-1/brand-1/? Ну тут уж совсем все сущности, правильно ли будет это канонический адрес частного фильтра white-black? А может быть стоит просто запретить к индексации ненужные адреса и не придумывать канонические?
WTF?
$cats = $dom->createElement("category");
$cats->appendChild($dom->createTextNode($ar_result['NAME']));
OR
$cats->appendChild($dom->createCDATASection($ar_result['NAME']));
Так задача для сеошника не для программиста, какой будет канонический адрес для фильтра если фильтр произвольный? Другими словами какой может быть у поиска канонический адрес если могут быть стопиццот параметров и результат зависит только от параметров итемов?
Совет из области вредных советов.
Нет. Это будет дубли контента.
Disallow: /*/color-*-
Disallow: /*/brand-*-
и тд.
Желательно проверить так как могут быть конфликты если в "1" содержится тире. Вам лучше привести реальные адреса с сайта. С гаданием на примеров это неблагодарная работа, проще обратится к специалистам которые вам настроят запреты на сайте.
Никакого отношения версия mysql здесь не имеет. Это банальный баг в логике.
if ($result){ $row = mysqli_fetch_array($result, MYSQLI_ASSOC); while($row){
и
while ($row = mysql_fetch_array($result))