- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ведем рекламные кампании в директе с метками utm под analytics, для того что бы избежать индексации получившихся страниц решили использовать директиву Clean-param, в таком виде:
User-agent: Yandex
Disallow:
Clean-param: utm_campaign&utm_medium&utm_source&utm_content&utm_term
На двух сайтах помеченные страницы пропали из индекса, на третьем кампанию запустили за день до включения директивы в robots и все помеченные страницы влетели в индекс, теперь гадаю насколько этот метод вообще оправдан в данном случае, может кто сталкивался?
Disallow бы сделали, делов-то.
Clean-param просто клеит изменения параметра, но не запрещает индексацию страниц с этим параметром
Disallow бы сделали, делов-то.
Clean-param просто клеит изменения параметра, но не запрещает индексацию страниц с этим параметром
Так в том и радость, что бы синхронизировать эти страницы, а не отключить их индексацию.
Theorist, а зачем их "синхронизировать"? Вы ссылочную массу на такие урлы покупаете?
Disallow: /*?utm_source
Theorist, а зачем их "синхронизировать"? Вы ссылочную массу на такие урлы покупаете?
Disallow: /*?utm_source
Спасибо, эта директива мне знакома, наверное неправильно выразился в первом посте, думаю что мне хотелось бы использовать именно Clean-param, просто никогда до этого не пользовался, поэтому и спрашиваю может у кого была похожая ситуация.
В индексе у вас останется какая-нибудь site.ru/page.html?utm_source=feedsutm_medium=rssutm_name=fromDME"bAustria/b/xiur/b/li/u вместо site.ru/page.html.
В индексе у вас останется какая-нибудь site.ru/page.html?utm_source=feedsutm_medium=rssutm_name=fromDME"bAustria/b/xiur/b/li/u вместо site.ru/page.html.
Не понял тут совсем, почему останется? С применением Clean-param? Вообще то на двух сайтах остались именно реальные страницы, хотя в хелпе и написано, что:
site.ru/some_dir/get_book.pl?ref=site_1&book_id=123,
Да, и ссылки мы на них не покупаем.