- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Вопрос следующий.
Есть сайт, на котором доступ к определенным файлам закрыт баннером (пример - https://uadvokata.com.ua/vstuplenie-v-nasledstvo/). Посетитель для получения доступу к ссылке для скачивания такого файла должен указать свой электронный адрес.
При стандартных настройках Гугл часто в результатах поиска выдает не статью на сайте, а сам файл, доступ к которому посетителям ограничен.
В файле роботс доступ поисковика к таким файлам был ограничен.
Недавно наткнулся на статью, в которой говориться о том, что такой способ блокировки с точки зрения поисковика не приемлем (/ru/news/2034841).
Подскажите, каким образом я еще могу предотвратить попадание в результаты поиска определённых файлов .doc, .pdf ?
Заранее всех благодарю за представленные ответы.
1. закрыть папку с файлами от индекса
2. сложить файлы на другой домен и закрыть его от индекса
Через HTTP-заголовок - https://developers.google.com/search/reference/robots_meta_tag#использование-http-заголовка-x-robots-tag
Ещё вариант - генерировать уникальный URL для скачивания файла только после указания электронного адреса (и автоматом удалять этот URL после скачивания).
Здравствуйте!
Если на старице я закрою ссылку на файл для скачивания тегом nofollow, то страница будет попадать в индекс, а файл для скачивания нет.
Я правильно понимаю?
С уважением, Павел
Файл может быть найден и другими способами. Но если вы поставите ссылке атрибут rel="nofollow" и удалите URL файла из карты сайта, то можно понадеяться, что ПС его не найдёт. Но это только при условии, что он ещё не проиндексирован. Если он уже проиндексирован, то ему нужно поменять URL, чтобы старый URL отдавал 404.
Через HTTP-заголовок - https://developers.google.com/search/reference/robots_meta_tag
В данном случае самый простой и правильный вариант. Т.к. при любом закрытии в robots нет гарантии, что url не будет проиндексирован (может быть НПС, однако содержимое документа вежливый бот не откроет при запрете в robots.txt, следовательно и в реальной выдаче он будет плохо искаться).
Ещё вариант - генерировать уникальный URL для скачивания файла только после указания электронного адреса (и автоматом удалять этот URL после скачивания).
Либо можно отдавать только "авторизованным" - при вводе e-mail ставится кука, при скачивании документа проверяется эта кука - если она есть, отдаётся контент документа. Нет - редирект на ввод емэйла.
Спасибо всем за ответы.
А как на конкретном примере я могу применить этот тег к файлу .doc на сайте WordPress?
С уважением, Павел
В файле .htaccess:
<Files ~ "\.(doc|pdf)$">
Header set X-Robots-Tag "noindex"
</Files>