Валентин, как там дела по моему сайту?
Писал в почту в начале недели и в аську потом.
По прежнему жду смету, оченно хочется попробовать.
YASTKeywords програмка-парсер вордстата и рамблера.
Програмка textkit вам в помощь.
Посиком по форуму, вчера где-то натыкался.
Только из базы продажных ссылок на двух биржах. Так что беки кажет далеко не все.
Да, ему абсолютно все равно. Цены берутся средние по палате (из той же базы, средняя цена на данную пару пузомерок).
Спасибо за програмку, пользительная.
Был какой-то глюк с кодировким при импорте в Excel. Но он легко починился.
А вот в самом интерфейсе не работает "копировать", хотя в меню предусмотрено :)
Ну и было бы здорово подружить ее с xml яндекса.
Ок, спасибо за помощь! :)
Достаточно так:
User-agent: * Disallow: /dir/page_with_params.php Host: www.site.ru
Или лучше вот так:
User-agent: * Disallow: /dir/page_with_params.php Host: www.site.ru User-agent: * Disallow: /dir/page_with_params.php Host: site.ru
Страницы существуют, они в индексе. Новые будут создаваться, с новыми уникальными параметрами.
Собственно задача убрать из индекса ненужные страницы и запретить индексацию новых.
Ошибка ясна, всем спасибо!
А с www|без www надо отдельно указать?
Мануал изучен, видимо не досконально :)
User-agent: * Disallow: www.site.ru/dir/page_with_params.php Host: www.site.ru
Так?
Надо ли дублировать для www.site.ru и site.ru?
Тоже спрошу:
Хотел закрыть от индексации все страницы вида ../page_with_params.php?a=b&x=y,
где параметров бесконечное множество.
Написал вот так:
Host: www.site.ru User-agent: * Disallow: http://www.site.ru/dir/page_with_params.php
Чета не помогло, как правильно их закрыть?