- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Почитал на форуме про роботс.тхт, нашел в нете инфу по поводу как можно закрыть для индексации директории и отдельные файлы. Поскольку я роботс.тхт ранее не создавал и не размещал, то прошу проверить и сказать, все ли верно я сделал (не хотелось бы напортачить и потом сидеть искать причины для исправлений).
Суть такая, есть две директории, в которых лежат файлы в формате .doc и .pdf. ПС их проиндексировали и в выдаче висят ссылки на эти файлы, что необходимо убрать. Есть две страницы, на которых есть ссылки к данным документам. Страницы находятся в корне сайта. Необходимо закрыть для индексации две директории и две данные страницы всем ПС для всех ботов:
User-agent: *
Disallow: /page1.html
Disallow: /page2.html
Disallow: /docs/
Disallow: /pdf/
Disallow:
Верно ли я все указал? все остальные страницы должны быть открыты для индексации.
Disallow: /pdf/
Можно и без последнего слеша.
Это типа про запас. :)
Ну хост пропишите для галочки.
Denisss70, зачем последний пустой Disallow?
User-agent: *
Disallow: /page1.html
Disallow: /page2.html
Disallow: /docs/
Disallow: /pdf/
Кстати после закрытия страниц в Яндексе их можно удалить http://webmaster.yandex.ru/delurl.xml
спасибо за исправления...
Не знаю как у яндекса, но у гугла пожешь прописать, для запрета индексации по расширениям:
User-agent: Googlebot
Disallow: /*.pdf$
Disallow: /*.doc$
кстати у яндекса есть роботс.тхт
http://www.yandex.ru/cgi-bin/test-robots
Не знаю как у яндекса, но у гугла пожешь прописать, для запрета индексации по расширениям:
Кроме Яндекса и гугла нет других поисковых систем?
Кстати яндекс тоже поддерживает спецсимволы '*' и '$'.
http://help.yandex.ru/webmaster/?id=996567#996572