- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта](https://d.searchengines.guru/20/96/delete-button-keyboard_600x314__3661c0be.jpg)
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
все не так - пропишите для юзера яндекса дисалов тест
Спасибо уже понял что именно для яндекса надо еще прописать, буквально недавно яндекс и общего юзера понимал User-agent: *
а гугл пишет что все закрыто, что не так в моем robots.txt ?
Потому что для него она указана.
А для Яндекс-а небыло похоже. Если указан User-agent: Yandex, то закрывающие/открывающие директивы будет брать только те, которые указаны для него.
---------- Добавлено 17.01.2018 в 13:57 ----------
общего юзера понимал User-agent: *
Будет понимать, если его не указали в User-agent: Yandex
ясно, это мой косяк я добавил
User-agent: Yandex
Clean-param: yclid
и все слетело, надо тогда все прописывать
Мне вот интересно, а для яндекса этот роботс вообще работает? За исключением клианпарам, сайтмеп и хост?
Что-то мне подсказывает, что нет. И если я прав, то ржака, что никто не заметил.
так обязательно прописывать в роботсе user-agent отдельно для гугла и яндекса? Или же можно отбомбить через "*"?
Заранее спасибо за ответ!
Необязательно. Если у вас нет правил, которые понимает только Яшка (например, клинпарам), то можно обойтись звездочкой.
---------- Добавлено 23.01.2018 в 06:26 ----------
так обязательно прописывать в роботсе user-agent отдельно для гугла и яндекса? Или же можно отбомбить через "*"?
Заранее спасибо за ответ!
Необязательно. Если у вас нет правил, которые понимает только Яшка (например, клинпарам), то можно обойтись звездочкой.
Если через ЛП платформу прописать только приветствие яндекс, будет какой то эффект?
Доброго времени суток форумчане.
Для сайта http://r-ford.ru файл robots.txt нужно настроить так, чтобы робот индексировал все страницы, кроме страниц по регионам - Спб, екатеринбург, Крым, Краснодарский край. При этом нужно, чтобы подкатегория Садовые качели для всех указанных регионов также индексировалась.
Согласно правилам прописываю:
User-agent: *
Disallow: /ekaterinburg/
Disallow: /krasnodarskiy-kray/
Disallow: /krym/
Allow: /peterburg/sadovye-kacheli/
Allow: /krasnodarskiy-kray/sadovye-kacheli/
Allow: /ekaterinburg/sadovye-kacheli/
Allow: /krym/sadovye-kacheli/
В итоге директива allow не срабатывает, и от индекса скрываются все регионы (то есть воспринимается только директива disallow). В чем может быть ошибка?
заранее спасибо за советы.
Протестили этим? https://support.google.com/webmasters/answer/6062598?hl=en
А еще читала что для большинства поисковых систем, то «Allow» должен быть первым.