- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте !
Тут в wmconsole для одного из своих сайтов обнаружил, что в индексе есть несколько десятков копий главной страницы. Они все имеют вид www.mysite.ru/?p=1...N, но для вывода главной страницы изначально не требуется передача параметров через GET вообще.
Мне не удалось обнаружить ни одной внутренней ссылки на такие страницы (ну мало ли какой программный глюк выявился), ни внешних... В Гугле таких страниц в индексе не замечено.
Следовательно, можно предположить, что они были добавлены вручную через форму добавления Яндекса, и не просто так, а с неким нехорошим умыслом.
Кто-нибудь сталкивался с таким явлением ? Насколько это может негативно сказаться на сайте с точки зрения ПС ?
Видимо, лучшим способом для предотвращения этого было бы обрабатывать get-запрос на уровне CMS (т.е. для каждого модуля иметь массив разрешенных параметров и в случае появления лишних выдавать 404 ошибку). Но если такой функциональности нет (кстати, а кто подскажет, в каких cms это реализовано ?), то придется вылавливать такие страницы и через robots.txt запрещать , а это может быть довольно трудоемкой задачей.
Или может проблема надумана ?
сталкивался.
В роботсе пропишите:
Disallow: /?
сталкивался.
а как-то негативно это повлияло ?
В роботсе пропишите:
Disallow: /?
В данном случае так и сделал.
Главное, чтобы "левый" параметр не подмешивался к страницам, у которых есть еще и свои параметры, да и если название "левого" параметра заранее неизвестно, то все будет несколько сложнее.
Скорее всего у вас что-то вроде блога/новостного сайта, или по крайней мере движок от такого сайта. ?p1..N это страницы с более старыми новостями.
Floston, сделайте сначала карту своего сайта какой-либо онлайн-утилитой или граббером сайтов типа Телепорта. Если Вы уверены, что Ваша CMS не генерит таких url, то можете использовать в robots.txt введённый Яндексом специально для таких целей параметр Clean-param. В отличие от предложенного выше Disallow: /? Вы сохраните возможность иметь страницы с другими параметрами.
ну и неольшое дополнение к Беобахтер - http://help.yandex.ru/webmaster/?id=996567#1041216
все подробно написано :)))
ну и неольшое дополнение к Беобахтер
все подробно написано :)))
Жаль, что эту директиву только яндекс поддерживает.
А у гугла свое решение http://www.mattcutts.com/blog/canonical-link-tag/
Floston, спасибо. На мой взгляд, вариант с директивой ещё и удобнее, при этом сохраняет гибкость.