- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Блог на WP.
В webmasters tools видно, что Гугл воспринимает все страницы в двойном экземпляре:
/category/page/subpage/
/category/page/subpage/index.html
Соответственно, с точки зрения Гугла все страницы сайта существуют в двойном экземпляре с одинаковыми тайтлами. На самом сайте все ссылки даны строго на index.html, в sitemap.xml тоже указываются правильно, т.е. видимых вариантов "subpage/" без "index.html" я не нашёл.
Вопрос: в чём может быть причина, какие могут быть санкции от Гугла, и есть ли стандартные методы исправления ситуации?
в роботсе не пробовали закрыть?
или 301 с /category/page/subpage/index.html на /category/page/subpage/ делать?
Чем грозит? Сначала часть страниц уйдет в сопли, потом вообще исчезнет из индекса.
в роботсе не пробовали закрыть?
или 301 с /category/page/subpage/index.html на /category/page/subpage/ делать?
Это вордпресс, там внутренний реврайт и внутренняя генерация роботса. То есть физически нет ни файла robots.txt, ни самих каталогов/файлов.
Как залезть во внутренности вордпресса - я к сожалению не знаю.
adaliska добавил 20.03.2009 в 20:13
На основании этой статьи http://googlewebmastercentral.blogspot.com/2009/02/specify-your-canonical.html
поставил вот такой тэг:
<link rel="canonical" href="<?php the_permalink(); ?>" />
Что скажете по этому поводу? Решит ли это проблему с дублированием?
Проблему то конечно решит, но Canonical рекомендуют использовать для нечетких дублей, например страницы с разной сортировкой данных. От 100% дублей лучше избавляться совсем.
От 100% дублей лучше избавляться совсем.
Как хорошо, что придумали CMS, которая решает эту проблему очень легко.
Как хорошо, что придумали CMS, которая решает эту проблему очень легко.
а поконкретнее можно?
Это вордпресс, там внутренний реврайт и внутренняя генерация роботса. То есть физически нет ни файла robots.txt, ни самих каталогов/файлов.
так а если создать вручную роботс и кинуть в коревую папку? а после этого уже можно запретить индексацию УРЛ, содержащие ненужную часть.
Это вордпресс, там внутренний реврайт и внутренняя генерация роботса. То есть физически нет ни файла robots.txt, ни самих каталогов/файлов.
Как залезть во внутренности вордпресса - я к сожалению не знаю.
ДА? А кто придумал ФТП и почему у меня на моем ВП я могу задать роботс а если припрет то и .htaccess изменить?
ДА? А кто придумал ФТП и почему у меня на моем ВП я могу задать роботс а если припрет то и .htaccess изменить?
Kirik, не спешите с выводами.
Это же не набор заранее известных страниц. Это блог, который пополняется постами ежедневно, руками и автоматом из RSS. Каждый пост имеет пермалинк примерно в том виде, который я привёл в начале топика. Если вы знаете какой-то волшебный способ, чтобы заранее прописать в роботсе/хтаксессе нужные редиректы на все случаи жизни - поделитесь пожалуйста, я буду только рад.
Kirik, не спешите с выводами.
Это же не набор заранее известных страниц. Это блог, который пополняется постами ежедневно, руками и автоматом из RSS. Каждый пост имеет пермалинк примерно в том виде, который я привёл в начале топика. Если вы знаете какой-то волшебный способ, чтобы заранее прописать в роботсе/хтаксессе нужные редиректы на все случаи жизни - поделитесь пожалуйста, я буду только рад.
allow: *index.html
disallow: /
все что с index.html в индексе, все что нет - не в индексе
проверить работоспособность можно здесь:
http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml
http://www.google.com/support/webmasters/bin/answer.py?answer=35237&topic=8475