- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вещь однозначно полезная, сенкс 2d1ma
сразу возник такой вопрос
что лучше - закрыть дублирующие страницы роботсом или дать к ним доступ ботам и прописать этот тэг?
закрыть дублирующие страницы роботсом или дать к ним доступ ботам и прописать этот тэг?
Я закрываю в роботсе, так как кроме Гугла есть и другие ПС, которые этот тег не поймут. Тег актуален, если вы работаете только с англоязычным Гуглом, ИМХО.
однозначно нужно пробовать...
Директива поддерживается Yahoo и MSN!
Может кто нибудь просвятит тех у кого с английским напряг ?
я постарался просветить: http://proseo.su/
статья, перевод ответов Google и полезные ссылки, в т.ч. с плагинами для WordPress и Drupal
seo-san добавил 17.02.2009 в 02:26
И чем это поможет? Бывает, что о том, что есть дубликат - узнаёшь по факту. Вот если бы в коде основной страницы ставить какой-нибудь тег, после которого бы не учитывались её копии. Но так вряд ли зделают, так будет широкое поле для злоупотреблений. Ведь как я понял, дубли допустимы на разных сайтах.
дубли допустимы в пределах домена и поддоменов
собственно, сразу и надо в основную страницу этот тег внедрять. тогда все ее дубли (с внешними ссылками, параметрами, префиксами и т.п) будут считаться гуглом основной страницей, с перетеканием на нее PR.
дубли допустимы в пределах домена и поддоменов
собственно, сразу и надо в основную страницу этот тег внедрять. тогда все ее дубли (с внешними ссылками, параметрами, префиксами и т.п) будут считаться гуглом основной страницей, с перетеканием на нее PR.
Сам-то понял что сказал?
Я закрываю в роботсе, так как кроме Гугла есть и другие ПС, которые этот тег не поймут. Тег актуален, если вы работаете только с англоязычным Гуглом, ИМХО.
Не скажите, для русского тоже полезно.
У меня на сайте форма отбора товаров, так получается, что в индексе появляются страницы дубли основной, но с динамическим урлом.
Если от Яндекса она элементарно закрывается <noindex> то под google пришлось извращаться с robots.txt, так как там нет подобной функции, а rel="nofollow" здесь не помощник.
Да и закрыв от индексации pr и ссылочное не передашь.
dimg добавил 17.02.2009 в 11:20
Сам-то понял что сказал?
Наверное хотел сказать вот это
A: Нет. Чтобы перевести робота на другой домен, гораздо лучше подходит постоянная переадресация (301 редирект). Сейчас Google рассматривает канонические ссылки в предлах домена или между поддоменами. Таким образом, владелец сайта может предложить www.example.com vs. example.com vs. help.example.com, но не example.com vs. example-widgets.com.
Это все равно не панацея...