- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Гугл, зараза, стал игнорировать robots.txt и проиндексировал pdf файлы. Подскажите пожалуйста как оформить ссылку так, чтобы люди могли без проблем смотреть статьи, а боты гугла обламывались. Я догадываюсь что это делается через javascript, но как конкретно?
Можете привести здесь содержимое файла, инструкции которого проигнорировал Гугль?
А ссылку можно сделать например так:
<a href="#" onclick="document.location='/filepath/file.pdf'; return false">Test</a>
поместите все такие файлы в отдельную папку /pdf/ и запретите её индексацию
Cherny,
User-agent: *
Disallow: /articles/
Nikolai Popkov,
Ну совсем за дурака не надо меня держать ;) Pdf файлы лежат в папке articles. Файл robots.txt приведен выше.
Unlock,
1. Это был общий совет, ваш сайт я не смотрел
2. C чего вы взяли, что Google проиндексировал файлы? Они есть в кэше? Есть сниппеты? Google может просто показывать адрес файла, но не индексировать его.
Для гугля кстати и так можно:
Запись должна начинаться с одной или нескольких строк User-Agentпопробуйте сделать A - большой
О каком сайте идет речь?
Nikolai Popkov,
В кеше нет, сниппетов нет. Я не знал и не сообразил что гугл может в индекс выкидывать файлы и при этом не индексировать. Т.е. тогда можно не обращать внимания на такую ситуацию?
AiK,
Т.е. можно в существующий файл robots.txt
User-agent: *
Disallow: /articles/
Дописать:
User-agent: Googlebot
Disallow: *.pdf
Nikolai Popkov, попробывать сделать А большой конечно можно, но только как то уж это странно. Название директории то начинается с а маленькой.
Если цель закрыть только pdf файлы - то да.
Если закрывается ещё что-то, например /cgi-bin/, то всё нужно продублировать в секции для Гугля, т.к. при наличии персональной секции бот игнорирует общие директивы.
Название директории то начинается с а маленькой.
имелось ввиду A в user-agent. Но это совет "на удачу" - по стандарту The field name is case insensitive.