- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые гуру! Взял сайтик на раскрутку, проверил выдачу по нему, и с удивлением обнаружил в выдаче кучу левых страниц по принципу http://ruwww.sitename.ru/ и www.site.ruwww.site.ru/ (см. скрин). Скажите, пожалуйста, откуда они взялись, и как их правильно убрать, причем так, чтобы не допустить их появления в будущем, а не просто оптом загнав в disallow в robots.txt?
Заранее благодарю!
С уважением,
stankriger
Надо копать в сторону хостера, т.к. по этим несуществующим поддоменам сервер отдает 200 отклик и для поисковиков это вполне нормальная страница.
Откуда взялись - вариантов много, например когда-то раньше некорректно был настроен редирект с домена www на без www, который и загнал такие домены в индекс.
exchanger_1, спасибо :) А какие вопросы правильно задать хостеру, чтобы он такого больше не допускал? И как правильно закрыть такую "красоту" в роботсе, чтобы лишнего не закрыть? Заранее благодарю :)
Сначала надо смотреть если у вас в админке хостера возможность создавать поддомены, если возможность есть, а в списке таких нет, спросите почему по несуществующим доменам сервер отдает 200 отклик, а не 404.
В роботс у вас закрыть неполучится , т.к. он закрывает только для домена на котором лежит, т.е. вам нужно будет создавать поддомены (и смотреть сколько их наплодилось) и на них размещать robots с "Disallow: /".
Только нормально настроенный сервер поможет вам корректно выйти из данной ситуации.
Громаднейшее спасибо за четкий и понятный ответ :)