nokiaman123

Рейтинг
29
Регистрация
31.12.2010
kruk1:
Это как два руля в машине сделать))

Ну все же, так сделать можно, но

kruk1:

Лучше выбрать одного, но хорошего.

Более правильный подход.

sstyle:
На сайте несколько различных групп товаров. Хочется разделить тематики на две группы и раздать двум оптимизаторам. Возможно ли это? Какие минусы могут быть?

Логически подумать уже никак?

Представьте себе один сад с деревьями, половину вы будете поливать водой из крана, которая течет у вас дома, а другую из ближайшего озера или реки, главное не поливать одно дерево два раза, а так же смотреть за количеством воды.

alegor:
а контент внутренних каким то образом влияет на продвижение главной?

Представьте, у вас на главной уник, а внутри копипаст. Возможно пользователю будет все-равно, но почему бы не сделать хорошо для поисковика? К тому же легче продвигать сайт, если вся информация оригинальная и интересная для пользователей

То что сайт баненый, это не означает, что робот по нему не гуляет

Dorvei:
можно ли с помощью span классов? и какое нормальное количество ссылок на странице? работает ли правило не более 100 ссылок? у меня их по 500

<noindex> позволит закрыть от индексации, по крайней мере первоисточник так пишет

tyber:
1 по поводу неинтересности для пользователей
выдача с метрики, 20% отказов за все время и глубина просмотра 7 страниц. думаю не самый плохой результат для первого блина комом.

2.загружено 68000 исключено 58000
а вы предлагаете открыть роботу путь на не ЧПУ ссылки? тоесть так лучше будет? и схлопотать дубли.

3. по поводу неудобно гулять роботу, есть каталог и хлебные крошки, или может кошку запустить на сайт и духов призвать еще нада?
ПС я хоть и лох полный но немного секу. и судя по дыму в снтернет среде если яша определяет что сайт это ИМ то ему до фоноря уникальность контента.

Не считайте мой ответ критикой, я лишь сказал что думаю.

Насчет ЧПУ можно поработать с переадресацией, если не программно то с помощью htaccess, сделать каноническую страницу.

Для индексации увеличить скорость загрузки сайта, использовать соц. сети - там роботы живут.

Думаю, я ничего лишнего не сказал.

tyber:
ктото писал про то что контента мало меньше 100 символов, ну тогда как некотарые такие страницы попали в индекс а страницы с 10000+ символом уника не хотят туда лезть.

А теперь представьте себя пользователем, а не создателем сайта.

Заходите вы на сайт, посещаете страницу с сотней символов, какая ваша реакция? Там выходит пустая страница, а значит и покупать вам не захочется, ну и читать то нечего.

Теперь как выписали "страницы с 10000+ символом уника" - вы всегда читаете такие страницы?

Я бы не читал, зачем мне читать уйму бредо-теста?

Вот если бы 2-3к текста на страницу, нет проблем, я почитаю там отзывы, описание, характеристики, ну подобные вещи - и возможно даже куплю, если понравится.

А потом как-то не удобно, страницы почти не связаны, как роботу нормально гулять по сайту, если там так не удобно?

---------- Добавлено 20.01.2013 в 14:33 ----------

tyber:
Сайтмапом загружено 68000 роботс исключает 58000 все вроде верно. куда копать уже незнаю

Кстати, чем меньше страниц исключается роботсом, тем я дума качественней сайт, а у вас исключается больше из индекса чем на сайте вообще есть, где тут качество?

Буду очень благодарен http://nokia-house.ru/

А я и не ждал, но и на этом спасибо :)

10>20

shabash:
Откат нужен 100%, сильно просели 80% сайтов. Гс нет, особых причин на это тоже

и самое главное страницы в плюс, позиции в минус, возможно будет откат, а возможно все вернется в следующий апдейт, нужно только терпение 🍿

Всего: 131