- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем такая ситуация.
Скрипт на сайте вставляет автоматом 2 ссылки на всех страницах ( для меня естественно совершенно ненужных ). Как грамотно закрыть их от индексации с помощью robots.txt (если можно пример), чтоб еще pr и иц не утекал ?
И второй вопрос . Если в ссылку добавить 2 тега :noindex и nofollow , то я так понимаю ,она не будет индексироватся ни яндексом ни гуглем ?
Пасиба
Пользуй тэг <noindex>
<noindex>ссылки</noindex> для яндекса
и <nofollow> для гугла.
Пользуй тэг <noindex>
<noindex>ссылки</noindex> для яндекса
и <nofollow> для гугла.
То есть для одной ссылки все вместе ?
В общем такая ситуация.
Скрипт на сайте вставляет автоматом 2 ссылки на всех страницах ( для меня естественно совершенно ненужных ). Как грамотно закрыть их от индексации с помощью robots.txt (если можно пример), чтоб еще pr и иц не утекал ?
И второй вопрос . Если в ссылку добавить 2 тега :noindex и nofollow , то я так понимаю ,она не будет индексироватся ни яндексом ни гуглем ?
Пасиба
Через роботс можно закрыть страницу целиком. Или группу страниц. Про <noindex> и nofollow уже ответили. Можно javascript исппользовать еще...
onclick.
Если эти ссылки Вам не нужны - может применить "радикальные методы" - отредактировать этот скрипт, или вырезать их другим скриптом перед выдачей. Если скрипт берёт ссылки из базы данных - можно там "поработать" - заменить на нужные.
На чём написан Ваш скрипт-то?
Про первый вопрос - нужно закрыть только две внешние ссылки например site1.ru и site2.ru на всех страницах через robots.txt . А остальное пусть все индексируется
Отредактировать скрипт не представляется возможным -zend
Tarry, а у вас в каталоге тоже nofollow для внешних ссылок ? :)
Про первый вопрос - нужно закрыть только две внешние ссылки например site1.ru и site2.ru на всех страницах через robots.txt . А остальное пусть все индексируется
Отредактировать скрипт не представляется возможным -zend
Tarry, а у вас в каталоге тоже nofollow для внешних ссылок ? :)
1) Нельзя через robots.txt закрывать что-то выборочно. Либо закрываете страницу, либо не закрываете. У Яндекса все чудесно расписано, как и что.
2)Название каталога не всегда соответствует его содержанию. :)
И второй вопрос . Если в ссылку добавить 2 тега :noindex и nofollow , то я так понимаю ,она не будет индексироватся ни яндексом ни гуглем ?
Пасиба
nofollow в ссылке не закрывает её от индексации. Только от передачи веса.
nofollow в ссылке не закрывает её от индексации. Только от передачи веса.
Я бы добавил, что робот гугла не должен ходить по этой ссылке. Якобы.
Отредактировать скрипт не представляется возможным -zend
/ru/forum/38457
Нельзя через robots.txt закрывать что-то выборочно.
Хреново , так как надеялся закрыть ссылки через robots
Либо закрываете страницу, либо не закрываете.
Закрыть все страницы не могу - так как весь сайт просто не проиндексируется :) , а эти 2 линка стоят на ВСЕХ страницах ( автоматически вставляются скриптом).