yellow_cat

Рейтинг
5
Регистрация
15.01.2013
Potapych:

....

1) Страница которая рассказывает какие проблемы решает товар 1
title сотоит: товар 1 + короткое описание
description сотоит: товар 1 + длинное описание
много хорошего текста

2) Страница каталога для серфера
title сотоит: товар 1 + 1-2 слова характеризующее его
description сотоит: товар 1 + какое то описание
<h1>товар 1 + 1-2 слова характеризующее его </h1>
несколько характеристик товара

3) Страница каталога для вебмастера
title сотоит: товар 1 + "партнерская программа"
description сотоит: товар 1 + какое то описание (отличное от описания в пункте 2 на 1-3 слова)
<h1>товар 1 + 1-2 слова характеризующее его(отличное от описания в пункте 2 на 1-3 слова) </h1>
несколько характеристик товара отличые от характеристик товара в пункте 2
....
п.с. всех с праздниками!

В индекс попадёт всё - и 1) и 2) и 3). Сам лично занимался сайтом, где изначально полными дублями были более 30% страниц. А страниц было 25 тыс.

Санкции за дубли ему никто не выписал. У вас страницы 2 и 3 лишь частично дублируют страницу 1. Если 2 и 3 вам нужны, то не закрывайте их

---------- Добавлено 17.01.2013 в 14:12 ----------

Potapych:

....

т.е. какталоги товаров стоит закрывать от индекса?

Поисковик прекрасно умеет отличать каталоги товаров от текстового контента. Вы не сможете продвигать каталоги или карточки, если закроете их от индексации :)

razumovsu:
Есть мнение, что сапой невозможно продвинуть некоммерческий информационный сайт?
А Вы как думаете?

Ссылками информационные ресурсы практически не двигаются. Тут надо делать упор на внутренние факторы - контент, метатеги, перелинковка и т. д. Плюс - статьи и релизы

Roousk:
эм....а на чем должен быть?
из за этого не могут быть проблемы с позициями в поисковиках?

Тут скорее всего сам валидатор не понимает кодировку. Код UTF-8 понимают все, а 1251 не все.

Если у сайта стоит кодировка 1251, как у вас, то ничего страшного в этом нет. Поиск поймёт всё как надо

webdizn:
26.8 Кб / 0.49 сек / 54.69 Кб/сек - это нормально?
Какая нормальная скорость загрузки должна быть?

Полсекунды для 26 Кб это много.

26 кб в 100 миллисекунд должны укладываться

Была история с маленьким сайтом на DLE, когда есть главная страница и есть 15 статей. Все статьи были плагиатом. В результате в индексе яши висела только морда. Статьи переписали процентов на 50 - и всё OK. Но это единичный пример, возможно в вашем случае будет по-другому

focooz:
Если <h1> дублирует заголовок <title> по содержанию.
Плохо ли это ? и если плохо, на сколько сильно должны отличаться друг от друга заголовки.

Если title и h1 одинаковые, то учтётся только title. А тег h1 что есть что нет

Лучше составить title на основе h1 и семантики

joost:
Если с одной страницы сайта поставить две ссылки на другую страницу с разными анкорами, то ссылочное будет передано по двум анкорам или по одному (который раньше по тексту страницы) ?

На данный момент и яднекс и гугл в таких случаях учитывает только одну ссылку - ту которая раньше по html коду

Раньше помогала фишка с добавлением меток к урлам, сейчас уже не работает

Проверьте robots.txt

Проблемы часто случаются именно потому что в роботс закрыто не то что нужно

Сайт переносится на новый движок или на новый домен всё-таки?

Если все редиректы прописать верно, то позиции сохранятся.

1000 редиректов не так много, подвешивать не должно

Если хотите бороться с дублями, то лучше их закрывать в роботс и ставить 301 редирект с дубля на оригинальную страницу

Ещё rel="canonical" помогает бороться с дублями в каталогах

Всего: 91