- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. Кажется я что-то пропустил, но ситуация с одним моим сайтом такая.
Вначале стоял двиг, на котором разделы и страницы имели следующий вид razdel.domen.ru/1.html В общем меня сайт не устраивал, и я решил поменять всё, снес этот двиг (вместе с контентом и страницами) и поставил другой. Но до этого момента страницы старого двига попали в индекс. После замены двига и последней индексации Яндекса в выдаче идут страницы razdel.domen.ru/blog/новые_страницы.html
Хотя реальный адрес domen.ru/blog/новые_страницы.html :D Абсурд!
Надо сказать что эти страницы доступны, но адресс то ведь не правильный, а реальные страницы совсем другие.
Что это? Как это произошло? И как исправить? Help!))
Скорее всего, роботы заходят по старым адресам (те что попали в индекс еще со старого двига), а эти "старые адреса" ничего подобного 404 ошибке не возвращают. Вот и причина проблемы. Новый двиг готов предоставлять страницы даже по старым адресам (скорее всего просто главную выдает).
Решить проблему можно лишь избавившись от старых url в индексах ПСов. Для этого надо настраивать вывод 404 ошибки для несуществующих страниц. Ну и в robots.txt можно поставить запреты.
подскажите, а как закрыть в robots.txt от индексации razdel.domen.ru, но чтобы domen.ru индексировался?
Disallow: razdel.domen.ru/
так?
У razdel.domen.ru есть своя корневая папка и свой robots.txt .
Это отдельные домены, отдельные сайты, все отдельное.
Ух ты. Натупил немного. Не обратил внимание на то, что домены разные (сорри, утро и спать охота).
Kost прав. В итоге у вас теперь два сайта. Один на основном домене (тот, что Вы сделали), а старый на субдомене.
Kost, так что делать?
Ghost_Dog, но здесь одинаково razdel.domen.ru и domen.ru
:D я закрыл в общем все старые в Dissallow: /razdel.domen.ru, в вебмастере кстати все страницы со старого URL в 404 ошибки внесены...
так как же он его склеил так?
подождите, не спешите с Dissallow: /razdel.domen.ru. Это всегда успеется.
Если можно, дайте url в личку
скинул в личку
Смотрите, я могу предположить только такое:
Старый движок работал таким образом, что по каждому субдомену выдавался определенный контент (грубо говоря отдельные сайты на разных субдоменах но работающие на одном движке).
Вы же снесли к чертовой бабушке старый движок и поставили новый. Но субдомены то никуда не делись, просто по ним теперь выдается результат работы нового движка. Короче говоря, у Вас теперь куча копий одного и того же сайта (нового сайта).
Если субдомены и их содержимое для Вас не представляет никакой ценности, то их смело можно уничтожить. НО! Так как Вам важно сохранить позиции определенных страниц, логично будет сделать 301 редирект со старого адреса на новый. И в robots.txt прописать для яндекса основной домен.
движок был bigstreet - создаешь раздел и он работает как субдомен, потом я удалил и движок и БД. только где теперь эти субдомены искать чтобы удалить? :D
Управление субдоменами обычно предоставляется регистратором доменного имени.
Как правильно поклеить домены можно почитать тут.