- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
(Вопрос) первый:
как запретить в robots.txt индексацию части стран, которые оканчиваются на что-либо? Пример: группы страниц
http://www.site.com/maramz* - должны индексироваться http://www.site.com/maramz*?=print - не должны индексироваться
(Наблюдение) второе:
в robots.txt четко и ясно прописано:
Disallow: /gallery?g2_view=slideshowapplet
несмотря на это я вижу как Яша не взирая на запрет индексирует:
/gallery?g2_view=slideshowapplet.SlideshowApplet&g2_item...
я удаляю через интерфейс webmaster.yand... отлично. удаляется. нету.
далее кол-во моих страниц падает раза так в ДВА, одновременно с этим меняется картина по ключевикам (кстати, не в лучшую сторону, теряя позиции). я немного (около месяца) жду, и как опять эта же страницы индексируются Яшой!
Опять удалить? Так они опять появятся, наверное.. Что делать?
p.s. и заодно, правда ли, что одна и та же страница по разным url проиндесированная Yandex'ом (2-5 копий) положительно влияет на выдачу? следует предположить, что отрицательно, но по моим поверхностным наблюдениям как раз все наоборот.
как запретить в robots.txt индексацию части стран, которые оканчиваются на что-либо?
Если в приведённом ниже примере * заменяет любое количество символов, то запрет придётся реализовывать для каждой страницы отдельно. В отличие от Google, для Яндекса нет возможности использовать "расширенные" инструкции в robots.txt
и заодно, правда ли, что одна и та же страница по разным url проиндесированная Yandex'ом (2-5 копий) положительно влияет на выдачу? следует предположить, что отрицательно, но по моим поверхностным наблюдениям как раз все наоборот
Именно наоборот!
В Яндексе директива Disallow: http://www.site.com/maramz запрещает индексацию всего, что начинатся http://www.site.com/maramz
то есть:
http://www.site.com/maramz
http://www.site.com/maramz*?=print - тоже
поэтому для запрета индексации лучше вводить http://www.site.com/maramz*?=print
Или модрерайтом заменить на то, что можно запретить отдельно.
А что мешает не роботс мучать, а пользоваться тэгом <meta name='robots' content='noindex,follow'>? При нормальной цмс можно на любую страницу вставлять по условиям, которые нужны.