Да? А по моей практике первое место - процентов 50. От сниппета еще, правда, зависит.
Google с недавнего времени стал гораздо луче учитывать словоформы. Даже порядок слов теперь влияет на выдачу.
Перестал работать модуль проверки внешних ссылок, уже больше недели как. Не может соединиться с Yahoo. В настройках ничего не менялось, работа как через прокси, так и без них.
Три раза написал в техподдержку - ни одного ответа. За годы, что пользуюсь программой, первый раз столкнулся с отсутствием ответа тех поддержки.
grot86, а саму сетку как прокачиваете? Ссылками с самой себя или извне?
Чапай, верно. :)
Disallow: /index.php/ - запрет директории, а поскольку директории с таким именем наверняка нет - это просто мусор в robots.
Кстати. Disallow: /add-item-to-your-cart/* - тоже неверно, если требуется запретить директорию и поддиректории - надо Disallow: /add-item-to-your-cart*/
Почитайте здесь.
В продвижении в картах? Ну-ну...
Если забыть о том, что (ИМХО) ссылки лучше вообще не покупать, то самое главное для Google - это естественность развития сайта (или ее имитация). Поэтому для нового сайта - цифры условные, конечно - сначала 3 ссылки в неделю, потом 5, потом 7, потом 10, потом 20 и т.д.
Кхм... Зависит от того, какой сайт, какая ниша, какие запросы, какая аудитория интересует, какой бюджет. Поэтому общие вопросы-ответы как бэ смысла не имеют.
cman, если приведены инструкции для конкретных ботов, то все нижеследующие запрещения их не касаются - паук, найдя директивы для себя, дальше файл не читает. Т.е. с точки зрения правильности составления robots.txt в Вашем файле все ОК.
Но какой практический смысл прописывать отдельную - одинаковую - инструкцию для кучи ботов, а потом запрещать индексацию всем оставшимся? Чтоб было что почитать перед сном в robots.txt?
iljatka, директива host недействительна для Google.
Дубли ищите ИМХО.
Yurij185, сорри, не прочитал Ваш пост до написания своего. )