Kost, спасибо за замечание, сделаю
сегодня заметил такую странность http://www.yandex.ru/yandsearch?ras=1&text=&site=www.saletime.biz
показывает что проидексировало две страницы с одинаковым урлом.
Ank, Да я уже понял, что там была ошибка, я ее исправил. Спасибо за то что указали на эту ошибку. Вопрос, правда, совсем в другом, и строка Allow в файле robots.txt не может быть причиной, которая не дала возможность гугловкому боту переиндексировать главную страницу и подхватить хотя бы еще одну. Спасибо за терпение
Я пишу в разделе для новичков, кто такой гуру и как с ним связатся ? это кто то типа Платона на Яндексе ? Спасибо за ответ
Это моя ошибка, Allow можно оставить только для гугловского бота, но причина по которой я создал этот топик связана с гуглом. "Расширение Allow
Робот Google распознает расширение стандартного файла robots.txt, называемое Allow. Это расширение может не распознаваться всеми остальными роботами поисковых систем, это можно выяснить в других поисковых системах. Строка Allow работает точно так же, как строка Disallow. Просто укажите каталог или страницу, к которым необходимо разрешить доступ." Да эту причину я исправлю, спасибо большое за совет.
Ank, можно подробнее, я просто не профи в этом деле. И может быть причиной именно robots.txt т.е. ? Спасибо за ответы
Да нет http://www.saletime.biz/robots.txt это не тяжело посмотреть, файл написан вроде бы правильно.