DC***

Рейтинг
107
Регистрация
30.09.2008
awasome:
DC***, от шаблона зависит

в моем шаблоне, например, ничего сверхъестественного нет, пару строк в сайдбарах и в файле functions.php - вот и вся виджетсовместимость. Вроде все стандартно. Не пойму тогда что у вас там.

awasome:
По умолчанию в сайдбар можно встроить только один виджет

Разве? Только что у себя проверил, несколько штук "перетянул" - все отлично.

У меня на компе стоит 3 браузера: Opera, Mozilla, Chrome, иногда Safari ставлю.

Для теста своей верстки в IE использую программу IETester.

Не мучаюсь с дурацкими онлайн сервисами, которые все-равно не покажут реальную полную картину.

zenja:
1.количество исходящих ссылок на странице устанавливается в настройках кампании
2.количество исходящих ссылок с сайта можно проверить здесь:

Про первое в курсе, а за второе спасибо 🍻

zenja:
Выбирайте доноров с минимальным количеством исходящих ссылок, как на целевой странице, так и с домена вцелом.

А как подчёркнутое можно проверить? :o

InHunt:
Ну это проказы автора темы.. Нужно было смотреть код темы..

Это моя вина что не обратил на это внимание, точнее не принял во внимание ).

InHunt:
DC***, На страницах которые запрещены к индексации должно быть так:
<meta name="robots" content="noindex,follow" />
А вот это:
<meta name="robots" content="follow, all" />
разрешает роботу индексировать страницу. Откуда оно у вас взялось?

Оно взялось в самой теме, в файле header.php :), прописано глобально было, соответственно появлялось на всех страницах. Возможно гугл заходя на страницу, игнорировал роботс и прочее, видя эту строку. Поэтому я и пришел к выводу что толку от этой строки вообще нет никакого. И убрал её.

InHunt:
И получается бред...

верно, так и получалось ).

Пройдите по ссылке ТС'a и увидите там строку в которой есть <meta name="robots" content="follow, all" /> - выше, а чуть ниже - <meta name="robots" content="noindex,follow" />. Вот оно и сбивает, видимо, робота гугла с толку.

mansursp:
DC***, а у вас какая версия плагина и wp? у меня на старых блогах (wp версии 2.ххх) плагин нормально работает

Всегда последняя версия, обновляю регулярно. Настроенный All in One SEO + роботс.txt помогают избежать индексации рубрик и архивов в Яндексе.

Гугл же все равно их у меня индексировал, хотя анализатор роботса в гугл вебмастер говорит что роботс составлен верно и такие то страницы действительно запрещены. В общем проблема решилась способом, который я написал в первом посте :). Постепенно вываливаются дубли из индекса. На счет правильности данного способа конечно не могу ручаться, но что есть, то есть.

InHunt:
В помощь вам плагин All in One SEO Pack. Ставим галочки напротив:
Use noindex for Categories:
Use noindex for Archives:
Use noindex for Tag Archives:

И что? Стоит этот плагин, выставлены галочки, все равно индексировались и категории и архивы (гуглом). В роботсе в любом случае нужно закрывать, если дубли не нужны конечно.

Опередили, потерто

Всего: 1374