- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Пишите Disallow: site.ru/m/, не прогадаете :)
Привет всем!
У меня проблемма такого рода:
ЦМС сделана так что может выдавать ссылки с небольшими изменениями, из-за чего получаются дубли страниц.
Для примера:
http://www.bandesign.ru/portfolio.php?work=147&s=0
http://www.bandesign.ru/portfolio.php?work=147&s=0&ss=1
Это ссылка в принципе на одну и ту же страницу но с различиями в навигации, получается дубль. Таких страниц много и при добвлении новой страницы, соответсвенно появляется и дубль. Как быть в такой ситуации? Как лучше и эффективнее побороть данную проблемму, что бы не прописывать в дизаллоу каждый дубль? Может как-то через Clean-param? Пожалуйста подскажите, я с роботс.тхт столкнулся впервые, боюсь что-то напутать.
посмотрите как сделано для моб версии хабра
ссылка
посмотрите как сделано для моб версии хабра
ссылка
Посмотрел но ни чего не понял, на что мне обратить внимание? А лучше конечно разобрать мой конкретный случай, так понятнее и нагляднее будет.
Здравствуйте.
Подскажите, пожалуйста, верно я прописываю Disallow: /*?*?
Это избавит от страниц вида /?yclid=5670..... , /index.php?option=..... , /?limitstart=..... в поиске?
Спасибо!
Помогите мне с роботсом мой сайт вот http://siday.com.ua/ движок регенирирует такие страницы как:
siday.com.ua/catalog/kreslo-meshok-piramida?sort=name
siday.com.ua/catalog/kreslo-meshok-grusha-ekokozha?sort=position
siday.com.ua/products/?sort=position&page=14
правельно ли я указал роботс:
Disallow: /?sort=position
Disallow: /?sort=name
Disallow: /?sort=position&page=all?
Disallow: /?sort=price&page=2
Disallow: /?sort=position&page=14
Добрый день.
Надо ли в robots.txt прописать Disallow: /error404.html?
Вообще ни кто отвечать не хочет... :(
Подскажите у меня в Явебмастере среди исключенных страниц, страницы вида:
/?p=346
/?p=459
У меня настроено ЧПУ, этот тип страниц действительно запрещен у меня в роботс, но откуда они берутся в таком формате, если ЧПУ настроено? Или это нормально и мне не следует обращать на это внимание?
Как я понимаю речь о WordPress, если так, то после настройки ЧПУ, страницы вида /?p=346 никуда не исчезают. Просто с них начинает работать редирект на ЧПУ.
А то что они отображаются в панели ЯВМ среди запрещенных, скорее всего следствие того что ЧПУ настроили не сразу.
Но в общем да, переживать не о чем