Софт для автоматического закрытия страниц от индексации в robots.txt

Jerk
На сайте с 04.03.2009
Offline
36
823

Здравствуйте, существует ли готовое программное решение, позволяющее просканировать сайт и вывести список всех страниц сайта. Для того чтобы в дальнейшем указать страницы не предназначенные для индексации ПС и по заданному фильтру сгенерировать robots.txt. Есть ряд сайтов, на которых довольно большое количество страниц, индексацию которых необходимо закрыть. Вручную это делать довольно геморно.

CD
На сайте с 08.08.2013
Offline
1
#1

Здравствуйте.

да http://sbfactory.ru/cd/?p=3

Jerk
На сайте с 04.03.2009
Offline
36
#2
Content Downloader:
Здравствуйте.
да http://sbfactory.ru/cd/?p=3

Спасибо за ссылку, но это немного не то. Мне нужен не сколько сам парсер, а генератор robots.txt по результатам парсинга. Чтобы вручную не забивать в robots.txt исключенные для индексации страницы.

CD
На сайте с 08.08.2013
Offline
1
#3

Если вам нужно дописать в начало каждой ссылки disallow, то там тоже есть такая функция...

Jerk
На сайте с 04.03.2009
Offline
36
#4
Content Downloader:
Если вам нужно дописать в начало каждой ссылки disallow, то там тоже есть такая функция...

Проблема в том, что не каждой ссылке нужно дописать disallow, а только к конкретным, которые разбросаны по всему сайту, во всех разделах и категориях. И я хотел чтобы указанные ссылки, но не все сгенерировались потом в файл с директивой disallow. Который в дальнейшим можно было бы внести в robots.txt

d4k
На сайте с 02.03.2010
Offline
146
d4k
#5

Pageweight

CD
На сайте с 08.08.2013
Offline
1
#6
Jerk:
Проблема в том, что не каждой ссылке нужно дописать disallow, а только к конкретным, которые разбросаны по всему сайту, во всех разделах и категориях. И я хотел чтобы указанные ссылки, но не все сгенерировались потом в файл с директивой disallow. Который в дальнейшим можно было бы внести в robots.txt

Соберите только "конкретные" ссылки сканером, в чем проблема не пойму...

Jerk
На сайте с 04.03.2009
Offline
36
#7
Content Downloader:
Соберите только "конкретные" ссылки сканером, в чем проблема не пойму...

Таких ссылок несколько тысяч может быть, проблема в том, что в ручную их в robots.txt заносить затруднительно.

Fruit
На сайте с 15.07.2008
Offline
166
#8
Jerk:
Таких ссылок несколько тысяч может быть, проблема в том, что в ручную их в robots.txt заносить затруднительно.

Ну если вы не троллите, то обучитесь работе с экселем и каким-нибудь текстовым редактором. Сделать из:

[url1]
[url2]
[url3]

список директив

User-Agent: *
Disallow: [url1]
Disallow: [url2]
Disallow: [url3]

элементарно.

Jerk
На сайте с 04.03.2009
Offline
36
#9

Спасибо всем, мы решили проблему.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий