в роботсе напишите
User-Agent: Yandex
Disallow: /?
Host: имя_вашего_домена
И удалите страницу через http://webmaster.yandex.ru/delurl.xml
vovanstar, Это скорее всего конкуренты над вами пошутили.
Нет, я конечно не спорю. Я просто говорю, что не сразу, а 1-3 апдейта подождать нужно.
А при чем здесь конкуренты. Просто сайт выпал по запросам, что достаточно часто в Яндексе случается.
Aveter, тогда коректней будет написать(по вашему примеру):
Disallow: /folder1/
Disallow: /folder2/
..........
Disallow: /folderN/
Host: www.vetroff.ru
User-Agent: *
или можете оставить robots.txt, таким как у вас есть(он будет коректен только для Яндекса, все остальные просто не понимают дерективу host), убрав лишнюю пустую строку перед host.
/index.php? и /? - это разные страницы для поисковика. Так что можете писать Disallow: /?
На обоих сайтах
В файле robots.txt пишете:
Disallow:
Если на сайте нет адресов начинающихся www.site.ru/? (где site.ru - имя вашего домена), то Disallow: лучше сделать не пустым, а так: Disallow: /?
И кладете этот файл в корень обоих сайтов. И почитайте http://robotstxt.org.ru/
Ну так скажите, что пусть они попробуют найти за такие деньги оптимизатора.
Зависет от ключевиков. А так, если бы бюджет был бы нормальный, то ничего сложного.
Да, сайт действительно жутковат. Переверстать бы его, и будет что то человеческое.
За такую сумму они пару раз по каталогам смогут пробежаться - и все.
Но это вы приувеличиваете.
Робот не получит такую ошибку. Он вообще ничего не получит.
ИМХО. Администратор сайта должен знать простейшие вещи.
Здесь половина пользователей этого форума - оптимизаторы. Так что никто не кого советовать не будет. Оставьте объявление в разделе работа, предложив при этом одекватную зарплату и к вам потянуться люди.
Можно конечно и на старом обновлять. Плюс от этого: вы не будете ждать индексации новых страниц на сайте, после того, как робот начнет индексировать новый хост. Главное, что бы на старом хосте робот получал код 200. И через некоторое время он начнет качать информацию уже с нового хоста.
Склейка - это когда ПС считает несколько доменных имен одним сайтом. Это происходит, когда под всеми доменными именами сайты одинаковы - зеркальны. Нужно избегать не склейки, а неправильной склейки. Это делается путем прописывания дерективы host в файле robots.txt на всех сайтах.
Есть корневые ДНС сервера, которые содержат записи для всего интернета, где вы и меняли записи, а есть ДНС сервера на хостинге, где не стоило менять записи.
А вы с этих позиций хоть какой нибудь траф получали? :)
Да, можно. К примеру, вы поменяли записи в днс, перенесли сайт и сразу же удалили его с виртуального хостинга. После чего роботы Яндекса достаточно долго не получали ничего с вашего сайта, и соответственно выкинули ваши страницы из поиска. При переезде нужно как минимум месяц держать еще виртуальный хостинг, прежде чем снести его.