- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите пожалуйста, мой сайт http://mywebconstructor.ru/ В панели Вебмастер сообщается, что загружено роботом 120 страниц, а страниц в поиске всего 71. Это можно рассматривать как бан или фильтр?
Это не бан, а дубли, причем даже не очень много. Сколько страниц исключено роботом?
Кстати, вы robots.txt давно сделали? В нем, например, теги запрещены, а в индексе они есть.
Сайт существует недавно (полтора месяца), а робот сделан 11 октября сего года.
А вообще как поступать с дублями, хорошо это или плохо для сайта?
Сайт про продвижение делаете, а про дубли не знаете ;)
Дубли это плохо, потому что Яндексу незачем включать в индекс одинаковые страницы. В идеале число страниц в поиске = загруженные роботом минус исключенные роботом. Любые дубли нужно закрывать от индексации. Вообще в панели Вебмастера в хэлпе есть даже ссылка, которая выглядит точно так же, как и ваш вопрос "Почему число страниц в поиске меньше числа страниц, загруженных роботом?"
Про дубли вордпресса и про его роботс очень много написано, в том числе и на форуме, поищите.
а дубли
Не обязательно. Может быть неинформативные страницы.
Насчет неинформативности - не знаю. Анализирую контент на уникальность - все в норме, даже очень неплохие показатели, пишу сам, и только на основе собственного опыта.
maximusnett добавил 20.10.2011 в 10:43
А могут, каким то образом влиять на индексацию страницы закрытые внешние ссылки, имею в виду (noindex и nofollow)?
Никак не могут.
Спасибо за информацию, понял куда копать!!!😂