- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть урл - http://......../.........php?link=2323 - :)
А вот к нему дубли:
http://........../............php?link=2323&pr=print
http://............../.............php?link=2323&d=2323
Как и чем правильно убрать? Закрыть, удалить, редирект!?!?
роботс.тхт
запрет индексации к типу страниц. - решаю так подобные задачи.
yarovoi, Закрывается все через robots.txt что у вас за CMS?
Как вариант еще ЧПУ задействовать. Можно свое написать, если CMS не имеет такой функции, отключив старые урлы опять же в роботс-е.
роботс.тхт
запрет индексации к типу страниц. - решаю так подобные задачи.
Можно с примером? желательно чтобы выше указанные урлы участвовали в примере ;)
---------- Post added 25-01-2015 at 13:11 ----------
yarovoi, Закрывается все через robots.txt что у вас за CMS?
Скрипт от nevius
---------- Post added 25-01-2015 at 13:15 ----------
Как вариант еще ЧПУ задействовать. Можно свое написать, если CMS не имеет такой функции, отключив старые урлы опять же в роботс-е.
Помогите разобраться!
Так например вы можете закрыть все дубли print
User-agent: *
Disallow: /*pr*
но боюсь что либо советовать, так как нужно видеть сайт, иначе можно закрыть нужное. В любом случае тестируйте все через https://webmaster.yandex.ua/site/robots.xml
Так например вы можете закрыть все дубли print
User-agent: *
Disallow: /*pr*
но боюсь что либо советовать, так как нужно видеть сайт, иначе можно закрыть нужное. В любом случае тестируйте все через https://webmaster.yandex.ua/site/robots.xml
Ок. а чтобы не закрыть нужное можно использовать мета-тег robots?
И как это тег можно прописывать в дублях?
Ок. а чтобы не закрыть нужное можно использовать мета-тег robots?
И как это тег можно прописывать в дублях?
В вашем случае лучше подойдет robots.txt можно и через мета-тег, но это будет костыль.
if (isset($_GET['pr'])) {$pr = $_GET['pr'];}
if($pr == 'print')
{
echo '<meta name="robots" content="noindex,nofollow" />';
}
?>
этот код просто для примера, который проверяет, есть ли в url параметр "pr" и если есть выводит мета-тег. Но проще в robots.txt подиграть, чем head набивать ненужным кодом. Повторюсь, в вашем случае нужно исходя из структуры url-адресов настроить robots.txt
а со вторым вариантом я так понимаю нужно делать примерно следующее?
User-agent: *
Disallow: /*d*
Zion-i2, все верно показали.
yarovoi, последние два вопроса честно говоря не понятны. что Вы имеете в виду?