- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт самописный на пхп
страницы выглядят так
blabla.ru/index.php?param1=2¶m2=2
С некоторых пор, не отследил когда, гугл проиндексировал вдобавок
blabla.ru/?param1=2¶m2=2, соответственно контента стало в два раза больше, но они все в дубле.
Хотя на внутренняке ссылок на второй вариант не было.
Наверное это не очень хорошо, хотелось бы исправить, но как нибудь корректно, чтобы гугл не наложил еще каких нибудь санкций что страниц стало в два раза меньше.
Может кто нить с этим сталкивался.. Как бы это сделать правильно и безболезненно
Закройте от индекса не нужные ... например с "?" и удалите через вебмастера левые ссылки.
Закройте от индекса не нужные ... например с "?" и удалите через вебмастера левые ссылки.
В смысле закрыть?
В сайтмапе в ноиндекс каждую или как то можно полностью все указать?
Мне надо убрать все страницы типа
blabla.ru/?param1=2¶m2=2
В смысле закрыть?
В сайтмапе в ноиндекс каждую или как то можно полностью все указать?
Мне надо убрать все страницы типа
blabla.ru/?param1=2¶m2=2
в robots.txt пропишите Disallow: /?param1=2¶m2=2
и проверьте в вебмастере (пункт "Доступ для сканера") нужные и ненужные страницы
в robots.txt пропишите Disallow: /?param1=2¶m2=2
и проверьте в вебмастере (пункт "Доступ для сканера") нужные и ненужные страницы
Но параметров там может быть много разных, а можно просто так: Disallow: /?
Не закроет это к индексации и blabla.ru/index.php?param1=2¶m2=2 случано?
Но параметров там может быть много разных, а можно просто так: Disallow: /?
Не закроет это к индексации и blabla.ru/index.php?param1=2¶m2=2 случано?
попробуйте так...
точно сказать не могу ...
поставьте а потом потестируйте в вебмастере...
XuMepKa добавил 22.04.2010 в 18:13
Не закроет это к индексации и blabla.ru/index.php?param1=2¶m2=2 случано?
это не закроется
попробуйте так...
точно сказать не могу ...
поставьте а потом потестируйте в вебмастере...
XuMepKa добавил 22.04.2010 в 18:13
это не закроется
Да надо бы точно, сайт то живой, жалко на нем экспериментировать...
Да и вобще нужно ли это делать?
Neptun13 добавил 22.04.2010 в 18:36
И еще вопрос
Disallow: /?param1=2
Заблокирует blabla.ru/?param1=2
А заблокирует он также и blabla.ru/?param1=2¶m2=2
Или для этого надо писать
Disallow:
/?param1=2
/?param1=2¶m2=2
Да и вобще нужно ли это делать?
делать желательно...
была такая же проблема... один из компонентов дублировал основные страницы сайта....
в итоге много страниц вместо нужных проиндексировались из компонента (а там они слегка по другому отображались и половина оптимизации катилась в *опу)... соответственно из-за отображения неправильных страниц и позиции были неахти...
закрыл в роботсе /index?option=param1, в течение недели половина левого переиндексировалась
Да надо бы точно, сайт то живой, жалко на нем экспериментировать...
а насчет эксперементирования, в вебмастере можно эксперементировать не меняя основной файл роботс.тхт
XuMepKa добавил 22.04.2010 в 18:51
И еще вопрос
Disallow: /?param1=2
Заблокирует blabla.ru/?param1=2
А заблокирует он также и blabla.ru/?param1=2¶m2=2
Или для этого надо писать
Disallow:
/?param1=2
/?param1=2¶m2=2
Disallow: /?param1=2 заблокирует и /?param1=2 и /?param1=2¶m2=2
Да надо бы точно, сайт то живой, жалко на нем экспериментировать...
Да и вобще нужно ли это делать?
Я так делаю и еще не умер ... Добавил правило в robots.txt проверил, если срабатывает так как надо оставил, нет - исправил, и ничего в этом страшного нет ...
Neptun13, вот руководство G по синтаксису robots (здесь уже сто раз обсуждалось, вполне могли бы найти, не говоря уж про сам Гугл).
http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449
Запретить урлы с вопросом для Гуглбота можно так:
Disallow: /*?
Neptun13, вот руководство G по синтаксису robots (здесь уже сто раз обсуждалось, вполне могли бы найти, не говоря уж про сам Гугл).
http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449
Запретить урлы с вопросом для Гуглбота можно так:
Disallow: /*?
Вы не совсем правильно поняли, а может это я не понял :-)
Мне надо убрать на сайте все страницы вида blabla.ru/?param1=2¶m2=2, но так чтобы остались все страницы вида blabla.ru/index.php?param1=2¶m2=2? а в вашем варианте на мой взгляд будут удалены оба варианта