- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть лимит, и он как раз на уровне 100к страниц.
Есть примеры и под 200К, получается все в разных условиях?
Адреса страниц не переделывали, в этом случае действительно Moved Permanently пришлась бы кстати. Ситуация возникла когда пришлось одномоментно удалить устаревшую информацию, где-то около 20К. Роботс не поможет, повторюсь.
Если урлы страниц однотипные, как в вашем случае, site.ru/itemN.html - просто пропишите в robots.txt:
Disallow: /item
и при удалении URLа (http://www.site/item) укажите, что надо удалить все урлы, начинающиеся на item
P.S.: Слеш в конце урла ставится тогда, когда запрещается индексация директории. :)
Если урлы страниц однотипные, как в вашем случае, site.ru/itemN.html - просто пропишите в robots.txt:
Disallow: /item
и при удалении URLа (http://www.site/item) укажите, что надо удалить все урлы, начинающиеся на item
QUOTE]
Ага, пасиб :) А если все не надо, например, надо удалить только диапазон адресов от item1 до itemN или от itemN до itemM, или вообще выборочно? Не писать же все 20 тыщ запрещенных адресов в robots.txt, Яндекс такой роботс вобще откажется читать :)
Если урлы страниц однотипные, как в вашем случае, site.ru/itemN.html - просто пропишите в robots.txt:
Disallow: /item
и при удалении URLа (http://www.site/item) укажите, что надо удалить все урлы, начинающиеся на item
QUOTE]
Ага, пасиб :) А если все не надо, например, надо удалить только диапазон адресов от item1 до itemN или от itemN до itemM, или вообще выборочно? Не писать же все 20 тыщ запрещенных адресов в robots.txt, Яндекс такой роботс вобще откажется читать :)
Напишите в поддержку Яндекса и спросите, robots какого объема он может прочитать. Если ограничение есть, я бы для ускорения удаления страниц пачками выкладывал сгенеренные урлы в роботс. :)
Напишите в Я, даже интересно стало :)
Напишите в поддержку Яндекса и спросите, robots какого объема он может прочитать. Если ограничение есть, я бы для ускорения удаления страниц пачками выкладывал сгенеренные урлы в роботс. :)
Напишите в Я, даже интересно стало :)
Предполагаю, что ограничение такое же как и на макс. размер индексируемых страниц. Написал в Яндекс по поводу размера robots.txt.
А мысль тоже неплохая, то есть не просто выкладывать нагенеренные адреса, а пачками генерить их прямо в роботс, автоматизировать процесс.
Причем это будет легальный способ удаления, хоть и не такой быстрый как автоматический вызов http://webmaster.yandex.ru/delurl.xml Тогда, по идее, надо еще засекать обращения робота Я к robots.txt, чтоб обновлять список запрещенных адресов.
Предполагаю, что ограничение такое же как и на макс. размер индексируемых страниц. Написал в Яндекс по поводу размера robots.txt.
А мысль тоже неплохая, то есть не просто выкладывать нагенеренные адреса, а пачками генерить их прямо в роботс, автоматизировать процесс.
Причем это будет легальный способ удаления, хоть и не такой быстрый как автоматический вызов http://webmaster.yandex.ru/delurl.xml Тогда, по идее, надо еще засекать обращения робота Я к robots.txt, чтоб обновлять список запрещенных адресов.
Я так мыслю, что яндексу достаточно 1 раз обратиться к роботс, чтобы увидеть запрещенные страницы. От апа до апа смотрите, если выпло столько страниц, сколько вы запретили - обновляйте роботс. :)
Но, нужно ли оно вам вообще? :)
Я бы честно говоря просто вынес бы сайт через форму целиком, предварительно прописав в роботсе
Disallow: /
А после апдейта тут же добавил бы его на индексацию заново
Evgenich,
с такой скоростью индексации, как сейчас, эти 100к страниц будут индексирвоаться месяцев 6, имхо
Редиректом посетителей с этих страниц гоните на схожие по тематике и всё
Kokh,
А в чем незаконность? Эта форма для того и сделана - удалять несуществующие страницы. При полном редезайне сайта так и пришлось сделать - все старые страницы удалили, а прогой, или вручную - это не так существенно.