- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет. Нид хелп :)
Значится, на продвигаемый сайт поставлены счетчики, уже как несколько месяцев,
через роботс не закрывали ничего.
Но вот только сегодня например одна из целевых страниц "сбилась" на такого вот вида конструкцию и просела ниже в выдаче (жирным выделен сам целевой урл)
http://www.site.ru/arenda-kvartir/?utm_source=yandex_cpc&utm_medium=cpc&utm_term=snjat_ofis_Baumanskaya&utm_campaign=moscow_03_10
означает ли такая подмена урла пессимизацию (за дубли или что то еще), неучет ссылок и прочие санкции?
Может у кого то были подобные ситуации и как вы боролись с этим?
Впервые вижу, чтобы статистика создала какие то урлы. Как они это вообще делают? Может просто их закрыть через robots.txt?
Это метка GoogleAnalytics для рекламы Яндекс.директ.
Чтобы исключить такие страницы из индекса нужно прописать в robots.txt в разделе
User-agent: Yandex
Это метка GoogleAnalytics для рекламы Яндекс.директ.
Чтобы исключить такие страницы из индекса нужно прописать в robots.txt в разделе
User-agent: Yandex
вот спасибо, это мысль )
aphextwin2000, а лучше так:
Disallow: /arenda-kvartir/?
aphextwin2000, а лучше так:
Disallow: /arenda-kvartir/?
а тогда не вылетят все страницы раздела arenda-kvartir/? может там чего полезно есть, кроме гугловских фантомов
а тогда не вылетят все страницы раздела arenda-kvartir/? может там чего полезно есть, кроме гугловских фантомов
ну это при условии что после ? ничего полезного нет, если есть - то тут нужно смотреть по ситуации и запрещать выборочно ?bla запрещать например, а ?t_bla - разрешать. :)
ну это при условии что после ? ничего полезного нет, если есть - то тут нужно смотреть по ситуации и запрещать выборочно ?bla запрещать например, а ?t_bla - разрешать. :)
точно, смотреть надо.
clean-param тоже хорошая вещь, но ведь только для Яши, дизаллов более универсален, думаю )
То есть метку создали не вы?
То есть метку создали не вы?
не я. у нас разделение труда.
aphextwin2000,
Disallow: /*utm_source
Чтобы исключить такие страницы из индекса нужно прописать в robots.txt в разделе
User-agent: Yandex
Clean-param: utm_source
Тогда он сам параметр оставит в индексе, просто сведёт все значения к какому-то одному.