Andrey4ik

Andrey4ik
Рейтинг
40
Регистрация
29.03.2011

hdaswet, спасибо .

почему все молчат? или реально считают меня конкурентом или нечего сказать?

Uzumator:
не разводим конкурентоту, товарищ

я вам не конкурент, товарищ. всего лишь пытаюсь развиваться умственно в определенной сфере деятельности.

лес там ---->

Andrey4ik:
в общем, не знаю, есть какие ошибки, которые были бы следствием агс: onligames.ru

ну так лучше вернемся

TarlQI, ну у меня и тот и тот вариант

ruizAv:
Сам по себе роботс просто рекомендует ботам пути по сайту.

в принципе понял. огромное спасибо за помощь.

думаю возможно еще в большом кол-ве тегов <strong> ?

Andrey4ik добавил 16.12.2011 в 16:29

в общем, не знаю, есть какие ошибки, которые были бы следствием агс: onligames.ru

ruizAv, а может тот роботс, послужить причиной агс?

ruizAv:
ну и прочие полезности в виде правки Тайтлов и добавления Тегов в Мету, но то такое. Именно использование канонических урлов режет дубли.

а по подробнее ?

ruizAv:
Canonical URLs
Use noindex for Categories
Use noindex for Archives
Use noindex for Tag Archives
Autogenerate Descriptions

включил данные опции.

sergej_a_g:
вот robots.txt

User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: Ваш сайт

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

данный robots.txt присутствует в данный момент на сайте, но как видно что-то в нем не хватает.

Nanaki:
просто по моему можно это сделать самому, и что вы подразумеваете под "правильный"?

составлял я сам, но ошибки присутствовали, а именно дубли страниц, поэтому нужен как я выразился правильный robots.txt, который закроет все дубли.

Nanaki:
Думаю что для начала вам стоит почитать вот это, желательно не только этот раздел.
Перед тем как писать тут, уж извините "глупости", вы бы немного вникли в "тему".

вопрос был в другом естественно. вы не по теме совсем.

не берите пример тыкать в мануалы. конкретизируйте. я же не настолько дурак чтобы не знать того что на яндексе пишут. мне надо конкретно правильный robots.txt для конкретной cms под названием wordpress

Andrey4ik добавил 15.12.2011 в 13:58

sergej_a_g:
Посмотрите этот плагин platinum-seo-pack

уже установил. спасибо огромное.

Всего: 142