Re: Резкое падение позиций в Яндексе, есть ответ Платона 2ч

A7
На сайте с 22.09.2014
Offline
64
#311
Arsty:
Для решения проблемы сделал редиректы, как тут

Arsty, большое спасибо и вам! Правда, у меня Джумла 3, а не 2.5. Не знаю, подойдёт ли этот способ для неё.

Не ругайте за наивность и неподготовленность, но есть ещё и такой вопрос. А как заблокировать джумловский адрес в robots.txt? К примеру, для блокировки /index.php/web-moshenniki/1025-gobongo

нужно писать:

Disallow: /web-moshenniki/1025-gobongo

или

Disallow: /index.php/web-moshenniki/1025-gobongo

начальный /index.php/ надо включать, или нет? И расширение файла не указывается, как и есть в реальном адресе Джумлы? Или всё же .php в конце дописывать?

A
На сайте с 20.08.2010
Offline
775
#312
Алексей-Алекс:
Эти ссылки запрещены в вашем робот.тхт, проверте его что у вас там.

Нет. Это страница, к которой бот имеет доступ, в противном случае эти страницы не всплыли бы как 403 ошибка. А вот сейчас их нужно закрыть от бота, либо поставить редирект.

Doublemint
На сайте с 10.09.2014
Offline
57
#313

ну так что кто знает что это такое ? И как решить эту проблему?

A
На сайте с 20.08.2010
Offline
775
#314

Как вариант Disallow: /*?

Только нужно удостовериться, что в индексируемых страницах нет знака вопроса, иначе бот их из индекса выкинет. И вообще надо аккуратней с роботсом и редиректами.

Doublemint
На сайте с 10.09.2014
Offline
57
#315

а причем тут знак вопроса вообще?

N1
На сайте с 15.03.2014
Offline
22
#316
Doublemint:
а причем тут знак вопроса вообще?

съев страницу робот перед добавлением ее в индекс смотрит правила робот.тхт если запрещены страницы начинающиеся с ? то в индекс они не попадут

A
На сайте с 07.10.2014
Offline
35
#317
asd75:

Не ругайте за наивность и неподготовленность, но есть ещё и такой вопрос. А как заблокировать джумловский адрес в robots.txt? К примеру, для блокировки /index.php/web-moshenniki/1025-gobongo

Если не уверен зайди в вебмастер яндекса->настройка индексирования->анализ robots.txt и проверь закрыт твой url от индексирования или нет, заодно и правильный, а то можешь все позакрывать

Doublemint
На сайте с 10.09.2014
Offline
57
#318

я понял ну у меня вроде таких страниц нету мне вообще сказали что в робот.тхт должно быть прописано

Disallow: /abnl/

Disallow: /?ssid=

Disallow: /*&*

чего у меня нету, я допишу наверно сейчас надеюсь поможет

V1
На сайте с 24.10.2012
Offline
64
#319

Ещё глупые боты часто ищут /pagead2.googlesyndication.com/pagead/js/adsbygoogle.js 😂 Как правило юзер агент у них незамысловатый типа "Mozilla/4.0" (или 5.0) + китайский айпишник. Забаниваю сразу таких в iptables.

Артм
На сайте с 28.04.2011
Offline
218
#320

Ребят, тема очень уж большая. Кто вывел сайт из под фильтра Яши?

Есть какая панацея, или пока что плакал наш доход?

Поставки из Украины чего угодно* в любую точку мира. Любой Download трафик льем сюда (https://offergate.pro/r/1575). От 5р (снг) до 20р (ру) за установку. Успех — это умение двигаться от неудачи к неудаче, не теряя энтузиазма.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий