- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Три года назад сайт был зарегистрирован в поисковых системах.
В течении полугода сайт координально изменился.
Сейчас поменяли ещё и дизайн.
Но поисковые системы всё ещё выкидывают на старые страницы, которые физически на сервере присутствуют, но никаких ссылок с нового сайта на них нет.
К тому же новые страницы почему то находяться довольно далеко от первых позиций, старые страницы бывают на вторых-пятых местах.
Что нужно сделать, чтобы сайт был пройден роботом заново?
И ещё вопрос: Какие страницы лучше для поисковиков *.shtml или *.html?
Три года назад сайт был зарегистрирован в поисковых системах.
В течении полугода сайт координально изменился.
Сейчас поменяли ещё и дизайн.
Но поисковые системы всё ещё выкидывают на старые страницы, которые физически на сервере присутствуют, но никаких ссылок с нового сайта на них нет.
К тому же новые страницы почему то находяться довольно далеко от первых позиций, старые страницы бывают на вторых-пятых местах.
Что нужно сделать, чтобы сайт был пройден роботом заново?
Роботы ходят отталкиваясь только от собственных правил и расчетов - повлиять на них и ускорить заход на какой-либо сайт могут только владельцы поисковика.
Для полного повторного обхода сайта можно сделать только одно: добиться (запретом в robots.txt) полного удаления сайта из индексов, после чего натравить робота повторно. Т.к. я уже говорил, что роботом управлять практически невозможно, считаю этот путь не самым выгодным (к тому же он довольно долгий по времени).
В некоторых поисковиках (Яндекс, Рамблер) есть специальная форма, через которую можно добавить еще не проиндексированные страницы сайта для ускорения их индексации. Этот путь, ИМХО, более правильный.
А то, что старые страницы в индексах сидят, так это же не плохо - просто надо придумать, как посетителей этих страниц "проводить" на новые... ;)
Разницы абсолютно никакой нет...