- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
есть у меня на сайте такие урлы:
filmXXXXX.html (где 12345 любое число - айдишка) - это странички фильмов... там же на страницах идет обсуждение фильмов, и если мнений очень много, то все разбивается на страницы и появляются УРЛы вида:
и filmXXXXXpYYY.html (где YYY это номер страницы).
все это через mod_rewrite отдает запрос на скрипт, и айдишку со страницей кидает параметром
так как страниц в последнее время проиндексированных Яндексом стало очень много, я решил урлы второго типа отрезать роботсами.... просто так в robots.txt их не пропишешь, потому что XXXXX разные числа. тогда я сделал, чтобы урлы второго типа были также доступны так - film_XXXXXpYYY.html
при обращении к урлу старого типа, отдаю статус 301 и перебрасываю на урл нового типа. в роботсы же добавил:
Disallow: /film_
рассчитывал я, что получив 301 яндекс урл старого типа из своей базы удалит, а новый не добавит, из-за роботсов... новые он и не добавляет, но и старые похоже не удаляет:(
проверял через addurl странички на которые робот приходил несколько недель назад - они все еще в базе:( что я сделал не так?
так все же
если в базе Яндекса есть документ, и приходя его переиндексировать робот получает 301, он его удаляет из базы или нет?
удаляет и кладет в базу новый урл. Ну, а остальное - со временем рассосется
mixb, проверял?