Я м.б. туплю, но как такие страницы закрыть в роботс для всего сайта?
К примеру, если выбран основной урл со / ?
Title
Мужское белье, мужские трусы
description
Наша компания предлагает вам мужское белье и мужские трусы по выгодным ценам в Москве. Тел. +7
keywords
мужское белье трусы
Вот уж я не знала. В любом месте роботса чтоли?
или это имеется ввиду:
User-agent:Yandex
Disallow: /
User-agent:*
Host: www.site.ru
?
Ну тогда вы должны знать как, когда, сколько и какие ссылки закупать или нет? ;)
Кроме того, вам они зачем, ссылки то?
Почему обязательно склеил? Возможно исключил из поиска как нерелевантные?
Посмотрите каких именно страниц нет в поиске - будет видно по какому типу исключиние. + Проверьте сайт на технические ошибки.
Например, я попала на такую страницу из меню сайта.
И что у вас там в host'е за поддомен висит?
Что, под каждый нч группы, которые являются расширяющими какого-либо СЧ? Отдельную статью?
А что Битрикс? Ее просто надо 1 раз корректно настроить и айс
Странный совет, человек пишет - у меня есть сайт. А вы ему, дану этот твой сайт, ты вот сделай Сайт! ;)
По теме: возьмите консультацию по тех.настройке сайта - оптимизации и\или индексирования - в зависимости от целей его создания.
robots у вас написан не совсем корректно. Об этом говорит даже директива host.
А до этого, на других "очередных" сайтах не закупались? :)
По теме: Не спеша, хорошая ссылочная база спешки не любит. + Подгружайте сайт текстами, если это в нем предусмотрено.
Ну тогда Мытищи :)
Чего то мне письмо пришло сегодня еще одно, об обновлении базы...