- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте Уважаемые форумчане.
Долго не хотел создавать тему, пытался найти информацию. Частично нашел, но все не то.
Есть молодой сайт, информационный, не ИМ. Во многих статьях я прикрепляю PDF руководства/инструкции с прямой ссылкой (сразу скачка или просмотр на сайте), всего около 300 на сайте, в основном на англ. языке. Контент к статьям уникальный, на русском.
Суть в том, что все эти PDF-ки я находил в Гугле и скачивал. Дальше уже добавлял к себе. В большинстве случаев менял имена файлов.
Собственно, вопросы:
1) Во многих PDF файлах стоят ссылки (в тексте) на источник, кликабельные (где-то по всему тексту, где-то внизу каждой страницы). Правильно ли я понимаю, что при таком подходе и так слабенький сайт по-сути ссылается на другие, тем самым делая себе хуже? Закрывать ли в роботс все ПДФ файлы в таком случае? И если они будут закрыты для индексации, будет ли учитываться ссылка на другой сайт, отдавая свой вес?
2) Гугл в своем Вебмастер Тулс ругается на некоторые уже проиндексированные PDF файлы, которые имеют "Связи" (не знаю как правильно назвать, в общем в самом тексте ссылаются на другие PDF файлы, которые были в первоисточнике, но соответственно отсутствуют у меня). Сильно ли это страшно? В справке вебмастера написано, что "Обычно ошибки 404 не оказывают влияния...", смущает фраза "Обычно".
3) Что бы Вы посоветовали сделать? Пытался с помощью "Акробата" удалить сразу все ссылки из файла, но после выполнения операции пишет "Удалено 0 ссылок". Я согласен оставить любые упоминания об авторстве, контент не собираюсь присваивать.
4) Просто удалить ПДФ материалы так же не могу, люди качают.
Большое спасибо за Ваше внимание, надеюсь на помощь. :o:o:o
Можно запретить для индексации сами PDF, которые вы размещаете на сайте. Только не через robots.txt, а через мета. Завтра на работе узнаю и закину. А так вопрос и для меня актуальный. Подписываюсь на топик
Вес закрытых передается.
Если ссылок с сайта не много на сторонние ресурс, о ничем себе не навредите.
Закрытые от паука файлы уменьшат в итоге трафик. Не намного в данном случае, но все же.
Не позволяет вера изменить пдфки, убрав ссылки оттуда, и напихав своих?
jumbosic, Ну почему сразу вера? Если Вы прочитали полностью, что я пытался удалить ссылки при помощью Акробата (инстр. Удалить все ссылки), но ничего не вышло. В 3-м пункте вопросов я прошу совета на этот счет. Файлы зачастую по 150 страниц, ковыряться просто нереально, может есть решение? Буду благодарен
Вот инструкция Google:
https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Суть в том, чтобы использовать в PDF "Using the X-Robots-Tag" в HTTP header документа. Но эта задача для программиста, вы вряд ли сможете ее реализовать.
Вот инструкция Google:
https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Суть в том, чтобы использовать в PDF "Using the X-Robots-Tag" в HTTP header документа. Но эта задача для программиста, вы вряд ли сможете ее реализовать.
Согласен, это не для меня точно...
Вдруг кто еще подскажет 😕
Ребят, ну подскажите как быть? :/
suppaplex, если они имеют пользу и люди их качают и смотрят, забейте!
вы помогаете людям, даете то, что они хотят, остальное это уже бред
Друзья. Раз уж задал вопрос, на него и отвечу, вдруг кому полезно будет.
С ссылками в пдф поступил следующим образом. Для Акробата Про есть плагины от компании EverMap, подходит AutoBookmark в нем инструмент Links, в котором идет функция автоматического удаления ссылок (стандартный вариант от Акробата не канает). К сожалению настроить пакетный обработчик не смог (именно по плагинам), но на чистку ушло не больше часа (около 250 файлов). Бегло пробежавшись - ссылок в пдфках не обнаружил. Надеюсь и ошибки в вебмастере сойдут на нет.
Всем успехов и большое спасибо откликнувшимся!