henri

Рейтинг
3
Регистрация
24.02.2011
Linkeeper:


Лучше подскажите. БЫЛИ ЛИ ИЗМЕНЕНИЯ, КОГДА УБРАЛИ РЕГИОН, КОТОРЫЙ ЯНДЕКС САМ ОПРЕДЕЛИЛ(АВТОМАТИЧЕСКИ)?

Присоединяюсь к вопросу!

Ситуация совершенно идентичная!

mr_krabs:
кто нибудь уже убирал регион россию, который автоматом присвоили. какие движения?

Тоже очень интересует этот вопрос...

По 3м сайтам такая же фигня, появился регион Россия и слетели позиции.

'[mAveRik:
;8851264']smart maneger, henri, учим матчасть
зы. smart maneger, а зачем вам столько счетчиков/рейтингов?

Я-то тут причем, я всё правильно написал!

smart maneger:
Сайт: santina.ru/

ну так потому что у вас стоит disallow первый просто пустой, он запрещает индексацию всего сайта!

Правильно надо сделать вот так:

User-agent: *

Disallow: /administrator/

Disallow: /cache/

Disallow: /components/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /libraries/

Disallow: /media/

Disallow: /modules/

Disallow: /plugins/

Disallow: /templates/

Disallow: /tmp/

Disallow: /xmlrpc/

Это всё уже было сделано.

Спасибо!

У них там больше про всякую ерунду с плагинами и т.д.

А меня интересует именно с точки зрения оптимизации что в ней плохого? и где это плохое поменять)

А такой вопрос...

А разные ссылки на 1у страницу считаются за несколько, верно?

Как вы считаете, стоит ли оставлять только 1 ссылку на определенную страницу, а остальные закрывать noindex ?

Dram, спасибо!

пока потестил только на 1м сайте - всё ок.

Завтра еще на 4ех попробую, отпишусь!

casseo:
нет, ответить, если смысл в сапе оставить проект, по этому урл

Если из индекса вылетела эта страница, то оставлять проект не имеет смысла.

Если же есть надежды, что вернется, то имеет смысл!

Также можешь сделать редирект с 1ой на вторую, чтобы если вернется отдало свой вес странице 2

7684406:
Здравствуйте.
Необходимо закрыть от индексации поисковыми роботами страницы:
Disallow: /content1/
Т.е. я закрываю страницу content1 и все страницы, лежащие на уровень ниже от робота.
ВОПРОС:
Посетит и проиндексирует ли робот страницы вида:
http:// site.ru/content2, http:// site.ru/content3 и т.д.
если на эти страницы можно попасть только по ссылкам со страниц:
http:// site.ru/content1/content1_2 или http:// site.ru/content1/content1_3 - которые закрыты в robot.txt

Добавь их в robots.txt и тогда посетит, вне зависимости от наличия или отсутствия ссылок на них.

Только ты наверно описался, насчёт *которые закрыты в robot.txt*, они наверно закрыты в htaccess?

12
Всего: 13