- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую всех, на сайте проводим акционные предложения, по ним формируем ссылку: site.ru/special/1. Переходя по этой ссылке человек получает бонус или скидку при покупке. Яндекс индексирует эти ссылки, и они попадают в выдачу, также проиндексировано много другого мусора, подскажите как лучше убрать все это из выдачи? Прикрепляю скриншот из ЯВМ.
Заранее всех благодарю.
На таких страницах пишите:
<meta name="yandex" content="NOINDEX, FOLLOW">
и каноникл на каноническую страницу.
Не лучше ли будет использовать директиву disallow в robots.txt?
Disallow: /special/
Disallow: /ru/special/
Disallow: *?source=
Disallow: *ru?source=
блокируй это все в роботс и все.
А во вторых от ваших ссылок попахивает utm метками и судя по всему их не правильно сделали
Прописать в robots.txt:
Disallow: /special/
Disallow: /?
Всем спасибо, прописал все в роботс.
Не лучше ли будет использовать директиву disallow в robots.txt?
Disallow: /special/
Disallow: /ru/special/
Disallow: *?source=
Disallow: *ru?source=
Да, когда нужно закрыть целиком ветку, Disallow: /special/ – идеальный вариант, а вот со строкой параметров поаккуратнее.
---------- Добавлено 19.02.2020 в 14:28 ----------
Я в частности про это:
:)
редиректить на нужные страницы