Alexey SEO

Рейтинг
192
Регистрация
23.06.2008

Да, место для контента надо бы расширить. За счет меню с рубриками и архивом. Метки вообще в подвал на всю ширину основной страницы.

Я например под контент вообще 700+ выделил места.

foxi:
Страницы тегов нужно просто закрывать от индексации в роботсе и будет всеобщее счастье, и юзерам удобно и для поисковиков нету поискового спама.

В большинстве случаев - да. Но не всегда.

aleksandrbol:
если я правильно понял, то Вы просто говорите поисковику что на страницах в head которой присутствует link rel="canonical" более выжная(support.google(dot)com/webmasters/bin/answer.py?hl=ru&answer=139394), чем все остальные похожие, но Вы таким образом указываете страницы которые получаются при переходе по тегам?

Верно. Страница как бы говорит поисковику, что первоисточник является первоисточником на сайте, а не дублем.

пойду пересплю с этой новостью)

aleksandrbol:
а с дублированием контента(когда одна статья имеет <teg1> <teg2> <teg3>, соответственно если переходим по первому тегу видим статью, по второму тегу видим ее же и по третьему тегу опять та же статься. Для ПС это явные дубли т.к. урлы то разные будут) в таком случае Вы как боритесь?

---------- Добавлено 21.05.2013 в 00:04 ----------


полностью согласен с Вами, у меня задача к новостям теги придумать, как тут заранее придумаешь что и какие новости будут через пол года.
К примеру: статья 1 "Упал метеорит"; статья 2 "Из чего состоит метеорит"; статья 3 "Каков вес метеорита" и т.д. а соответственно для отображения всей этой красоты достаточно перейти по тегу который есть во всех статьях "метеорит"

link rel="canonical"

aleksandrbol:
Благодарю за инфу!
Правильно я понимаю, что теги про которые Вы говорите это на сайте который в подписи?

---------- Добавлено 20.05.2013 в 22:13 ----------


Спасибки за совет!
А янддексоиды пояснили, что именно не так? Вхождений ключей получилось много или в следствии наличия облака появились явные дубли страниц?
А Вы закрыли от индексации в <noindex> облако тегов или ссылки nofollow или в robots.txt страницы закрыли которые облако генерировало?

Да, все верно.

У человека выше по видимому был переспам тегами. Нужно с умом и правильно их выводить. Ранее у меня было закрыто это все от ПС. Рискнул открыть и не пожалел.

Смотря для чего. В моем случае (назначение статьям названий станций метро, районов и прочего) - помогло.

Cell:
В общем случае - несовместимые вещи.
Ваш перевод выйдет искусственным, деревянным.

Google translate стоит использовать, когда вам непонятно (вы не знаете как лучше пеервести) одно слово.


P.S. Прогоните сказку "Курочка Ряба" с русского на английский, а полученное - снова на русский. И насладитесь результатом.

Вот примерно такими - несмотря на все ваши правки - будут ваши тексты.
Язык нужно знать "вживую".

Ну или из полученного "дерева" сделать хороший рерайт, верно?

Но он же исправленный, а не просто скопипастен. Работа над текстом и придание ему уникальности, приносит свои плоды, уж поверьте.

У меня СДЛ, я не выделяю ключевые слова в тексте - на дух не переношу такое когда вижу, а делаю акцент на выделении нужных мне запросов.

Например, "где находится... _такое то место_". Помогает.

А вхождения ключевиков без стронга и так нормально себя чувствуют и видятся ПСами.

Всего: 1245