Aleksandr666

Рейтинг
1
Регистрация
14.04.2011

Спасибо. :)

Kost:
Aleksandr666, а почему бы вместо такой кучи Disallow не написать один:

Disallow: /

если перед ним вы разрешили все необходимое.

СПАСИБО ПОНЯЛ.

А КАК ДОЛГО ЖДАТЬ ПОКА ВЫПАДУТ ИЗ ИНДЕКСА ЗАПРЕЩЕННЫЕ СТРАНИЦЫ ?

Kost:
http://help.yandex.ru/webmaster/?id=996567 - это нужно прочитать и тщательно изучить ДО того, как что-то спрашивать.

Ты знаешь я этот материал смотрел НО т.к. я новичок и составляю это файл впервые в жизни то я и пришел на форум что бы спросить совета.

line_s:
Disallow: */tag/
Но ваше падение в выдачи с дублями не связаны.

Может быть вы знаете с чем связаны ? Ну хотя бы догадки?

ANDARK,

Все понял, буду в личку писать.

Еще только одно уточнение.

Смотри у меня есть несколько страниц с адресами:

http://luks.by/restorany-minska/itemlist/tag/%D0%B2%20%D0%9C%D0%B8%D0%BD%D1%81%D0%BA%D0%B5.html?start=30

http://luks.by/podat-objavlenie/itemlist/tag/%D0%B2%20%D0%9C%D0%B8%D0%BD%D1%81%D0%BA%D0%B5.html?start=30

http://luks.by/press-relizy/itemlist/tag/%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%84%D0%B5%D1%80.html

так вот что бы закрыть эти страницы от индексации мне придется писать в robots.txt:

User-agent: *

Disallow: /tag/

User-agent: GoogleBot

Disallow: /tag/

User-agent: Yandex

Disallow: /tag/

Host: luks.by

ИЛИ МНЕ ПРИДЕТСЯ ПИСАТЬ:

User-agent: *

Disallow: /minska/itemlist/tag/

Disallow: /objavlenie/itemlist/tag/

Disallow: /relizy/itemlist/tag/

User-agent: GoogleBot

Disallow: /minska/itemlist/tag/

Disallow: /objavlenie/itemlist/tag/

Disallow: /relizy/itemlist/tag/

User-agent: Yandex

Disallow: /minska/itemlist/tag/

Disallow: /objavlenie/itemlist/tag/

Disallow: /relizy/itemlist/tag/

Host: luks.by

БОЛЬШОЕ ЧЕЛОВЕЧЕСКОЕ СПАСИБО ЧТО ПОМОГ :)

Aleksandr666 добавил 14.04.2011 в 15:22

Все понял, буду в личку писать.

Еще только одно уточнение.

Смотри у меня есть несколько страниц с адресами:

http://luks.by/restorany-minska/itemlist/tag/%D0%B2%20%D0%9C%D0%B8%D0%BD%D1%81%D0%BA%D0%B5.html?start=30

http://luks.by/podat-objavlenie/itemlist/tag/%D0%B2%20%D0%9C%D0%B8%D0%BD%D1%81%D0%BA%D0%B5.html?start=30

http://luks.by/press-relizy/itemlist/tag/%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%84%D0%B5%D1%80.html

так вот что бы закрыть эти страницы от индексации мне придется писать в robots.txt:

User-agent: *

Disallow: /tag/

User-agent: GoogleBot

Disallow: /tag/

User-agent: Yandex

Disallow: /tag/

Host: luks.by

ИЛИ МНЕ ПРИДЕТСЯ ПИСАТЬ:

User-agent: *

Disallow: /minska/itemlist/tag/

Disallow: /objavlenie/itemlist/tag/

Disallow: /relizy/itemlist/tag/

User-agent: GoogleBot

Disallow: /minska/itemlist/tag/

Disallow: /objavlenie/itemlist/tag/

Disallow: /relizy/itemlist/tag/

User-agent: Yandex

Disallow: /minska/itemlist/tag/

Disallow: /objavlenie/itemlist/tag/

Disallow: /relizy/itemlist/tag/

Host: luks.by

БОЛЬШОЕ ЧЕЛОВЕЧЕСКОЕ СПАСИБО ЧТО ПОМОГ :)

dustyo_O:
теги-то 100% надо закрывать.
Disallow: /*/tag/

учтите, что * подходит не для всех поисковиков, нужно разбить robots на секции

Извини но у меня еще один вопросик. Я раньше никогда не делал файлы robots.txt и если я запишу его вот так то дублирующиеся директории закроются? Ну вообще правильно я его составил ? :(

User-agent: *

Disallow: /tag/

User-agent: GoogleBot

Disallow: /tag/

User-agent: Yandex

Disallow: /tag/

Host: luks.by

Aleksandr666 добавил 14.04.2011 в 13:30

ANDARK:
скорее не резко перестать покупать, а резко не снимать чтобы все вернулось. Все и так должно вернутся немного погодя, только ссылки не рекомендую снимать. Много раз наблюдал как начинаешь ссылки закупать и проект проседает по позициям, а потом постепенно до более высоких позиций чем в начале поднимается.

и посоветовал бы дальше покупать ссылки, но не так много, и на внутряк еще раскинуть.

Извини но у меня еще один вопросик. Я раньше никогда не делал файлы robots.txt и если я запишу его вот так то дублирующиеся директории закроются? Ну вообще правильно я его составил ? :(

User-agent: *

Disallow: /tag/

User-agent: GoogleBot

Disallow: /tag/

User-agent: Yandex

Disallow: /tag/

Host: luks.by

dustyo_O:
я говорю о том, что правильно сделать в данной ситуации. никаких гарантий с печатями вам никто не даст

тогда еще такой вопрос, у меня многие объявления о квартирах имеют почти такой же текст как и на сайтах их хозяев т.е. много копи паста, это могло повлиять как думаешь? 😕

Aleksandr666 добавил 14.04.2011 в 12:04

ANDARK:
чем закрывать дубли по мне так проще их вообще избегать.

сайт может не только из-за этого просесть в выдаче. Посмотрите на переспам тексты.
А последние апдейты что-то вообще хреновые были.

Сколько на сайт ссылок покупаете?

сайту почти три месяца (10 недель) а ссылок судя по вебмастеру яндекса около 700 со 130 сайтов

(так с одного только рамблер каталога у меня 250 ссылок, ну если верить вебмастеру яндекс), все ссылки на идут только на главную страницу сайта, может из-за этого ? 😕

А насчет последних апдейтов странных то это точно, т.к. у моего знакомого пару сайтов с уник. контентов из топа вылетели на 3 - 4 страницы (

Aleksandr666 добавил 14.04.2011 в 12:06

ANDARK:
чем закрывать дубли по мне так проще их вообще избегать.

сайт может не только из-за этого просесть в выдаче. Посмотрите на переспам тексты.
А последние апдейты что-то вообще хреновые были.

Сколько на сайт ссылок покупаете?

мне сказали что я купил слишком много ссылок и теперь лучше не перестовать резко покупать. Так вот сежу и думаю толи дальше покупать толи нет ?

ANDARK:
для вашей Joomla поставьте компонент sh404sef. Поможет избавиться от дублей.

как думаете если я закрою дубли в robots.txt то сайт выйдет из под пессимизации ? или может быть это фильтр какой то ?

Aleksandr666 добавил 14.04.2011 в 11:50

dustyo_O:
теги-то 100% надо закрывать.
Disallow: /*/tag/

учтите, что * подходит не для всех поисковиков, нужно разбить robots на секции

как думаете если я закрою дубли в robots.txt то сайт выйдет из под пессимизации ? или может быть это фильтр какой то ?

dustyo_O:
у вас же дубли через весь сайт

Скажите пожалуйста, что в таком случае необходимо делать? Закрывать файлы в robots.txt или что ? 😕