Индексация PDF файлов. Скрывать или нет?

suppaplex
На сайте с 21.04.2014
Offline
77
4297

Здравствуйте Уважаемые форумчане.

Долго не хотел создавать тему, пытался найти информацию. Частично нашел, но все не то.

Есть молодой сайт, информационный, не ИМ. Во многих статьях я прикрепляю PDF руководства/инструкции с прямой ссылкой (сразу скачка или просмотр на сайте), всего около 300 на сайте, в основном на англ. языке. Контент к статьям уникальный, на русском.

Суть в том, что все эти PDF-ки я находил в Гугле и скачивал. Дальше уже добавлял к себе. В большинстве случаев менял имена файлов.

Собственно, вопросы:

1) Во многих PDF файлах стоят ссылки (в тексте) на источник, кликабельные (где-то по всему тексту, где-то внизу каждой страницы). Правильно ли я понимаю, что при таком подходе и так слабенький сайт по-сути ссылается на другие, тем самым делая себе хуже? Закрывать ли в роботс все ПДФ файлы в таком случае? И если они будут закрыты для индексации, будет ли учитываться ссылка на другой сайт, отдавая свой вес?

2) Гугл в своем Вебмастер Тулс ругается на некоторые уже проиндексированные PDF файлы, которые имеют "Связи" (не знаю как правильно назвать, в общем в самом тексте ссылаются на другие PDF файлы, которые были в первоисточнике, но соответственно отсутствуют у меня). Сильно ли это страшно? В справке вебмастера написано, что "Обычно ошибки 404 не оказывают влияния...", смущает фраза "Обычно".

3) Что бы Вы посоветовали сделать? Пытался с помощью "Акробата" удалить сразу все ссылки из файла, но после выполнения операции пишет "Удалено 0 ссылок". Я согласен оставить любые упоминания об авторстве, контент не собираюсь присваивать.

4) Просто удалить ПДФ материалы так же не могу, люди качают.

Большое спасибо за Ваше внимание, надеюсь на помощь. :o:o:o

Doroshev
На сайте с 21.01.2010
Offline
186
#1

Можно запретить для индексации сами PDF, которые вы размещаете на сайте. Только не через robots.txt, а через мета. Завтра на работе узнаю и закину. А так вопрос и для меня актуальный. Подписываюсь на топик

J
На сайте с 18.12.2004
Offline
238
#2

Вес закрытых передается.

Если ссылок с сайта не много на сторонние ресурс, о ничем себе не навредите.

Закрытые от паука файлы уменьшат в итоге трафик. Не намного в данном случае, но все же.

Не позволяет вера изменить пдфки, убрав ссылки оттуда, и напихав своих?

Аттестация рабочих мест в Мурманске (http://arm.com.ru/)___Помоги детям песком (https://vk.com/kindcenter)
suppaplex
На сайте с 21.04.2014
Offline
77
#3

jumbosic, Ну почему сразу вера? Если Вы прочитали полностью, что я пытался удалить ссылки при помощью Акробата (инстр. Удалить все ссылки), но ничего не вышло. В 3-м пункте вопросов я прошу совета на этот счет. Файлы зачастую по 150 страниц, ковыряться просто нереально, может есть решение? Буду благодарен

Doroshev
На сайте с 21.01.2010
Offline
186
#4

Вот инструкция Google:

https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag

Суть в том, чтобы использовать в PDF "Using the X-Robots-Tag" в HTTP header документа. Но эта задача для программиста, вы вряд ли сможете ее реализовать.

suppaplex
На сайте с 21.04.2014
Offline
77
#5
Doroshev:
Вот инструкция Google:
https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Суть в том, чтобы использовать в PDF "Using the X-Robots-Tag" в HTTP header документа. Но эта задача для программиста, вы вряд ли сможете ее реализовать.

Согласен, это не для меня точно...

Вдруг кто еще подскажет 😕

suppaplex
На сайте с 21.04.2014
Offline
77
#6

Ребят, ну подскажите как быть? :/

anndielm
На сайте с 02.05.2012
Offline
126
#7

suppaplex, если они имеют пользу и люди их качают и смотрят, забейте!

вы помогаете людям, даете то, что они хотят, остальное это уже бред

suppaplex
На сайте с 21.04.2014
Offline
77
#8

Друзья. Раз уж задал вопрос, на него и отвечу, вдруг кому полезно будет.

С ссылками в пдф поступил следующим образом. Для Акробата Про есть плагины от компании EverMap, подходит AutoBookmark в нем инструмент Links, в котором идет функция автоматического удаления ссылок (стандартный вариант от Акробата не канает). К сожалению настроить пакетный обработчик не смог (именно по плагинам), но на чистку ушло не больше часа (около 250 файлов). Бегло пробежавшись - ссылок в пдфках не обнаружил. Надеюсь и ошибки в вебмастере сойдут на нет.

Всем успехов и большое спасибо откликнувшимся!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий