в моем шаблоне, например, ничего сверхъестественного нет, пару строк в сайдбарах и в файле functions.php - вот и вся виджетсовместимость. Вроде все стандартно. Не пойму тогда что у вас там.
Разве? Только что у себя проверил, несколько штук "перетянул" - все отлично.
У меня на компе стоит 3 браузера: Opera, Mozilla, Chrome, иногда Safari ставлю.
Для теста своей верстки в IE использую программу IETester.
Не мучаюсь с дурацкими онлайн сервисами, которые все-равно не покажут реальную полную картину.
Про первое в курсе, а за второе спасибо 🍻
А как подчёркнутое можно проверить? :o
Это моя вина что не обратил на это внимание, точнее не принял во внимание ).
Оно взялось в самой теме, в файле header.php :), прописано глобально было, соответственно появлялось на всех страницах. Возможно гугл заходя на страницу, игнорировал роботс и прочее, видя эту строку. Поэтому я и пришел к выводу что толку от этой строки вообще нет никакого. И убрал её.
верно, так и получалось ).
Пройдите по ссылке ТС'a и увидите там строку в которой есть <meta name="robots" content="follow, all" /> - выше, а чуть ниже - <meta name="robots" content="noindex,follow" />. Вот оно и сбивает, видимо, робота гугла с толку.
Всегда последняя версия, обновляю регулярно. Настроенный All in One SEO + роботс.txt помогают избежать индексации рубрик и архивов в Яндексе.
Гугл же все равно их у меня индексировал, хотя анализатор роботса в гугл вебмастер говорит что роботс составлен верно и такие то страницы действительно запрещены. В общем проблема решилась способом, который я написал в первом посте :). Постепенно вываливаются дубли из индекса. На счет правильности данного способа конечно не могу ручаться, но что есть, то есть.
И что? Стоит этот плагин, выставлены галочки, все равно индексировались и категории и архивы (гуглом). В роботсе в любом случае нужно закрывать, если дубли не нужны конечно.
Опередили, потерто