- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообщем делал сайт на джумле и гугле вылезли ссылки с параметром "?cal_offset=" типа domen/o-kompanii?cal_offset=3
Из-за чего все страницы проиндексировались примерно по 100 раз....
Добавил строку в роботсе
Disallow: /*?cal_offset=
и гугл понял, что не нужно индексировать такие страницы (исходя из уведомления в панели вебмастера), но тем не менее все эти страницы до сих пор в индексе.. как их удалить? Либо ждать пока сами не исчезнуть
Зайдите в вебмастер туулс и удалите. Там есть удалить урл, я запрещал в роботсе, потом проверял, а затем через окошко удаления отправлял заявку на удаление.
Если я так укажу, удалить domen/o-kompanii?cal_offset=3 он не удалит domen/o-kompanii ???
Нет, не удалит. Сам удалял на одном сайте на Битриксе, вылез целый каталог дубликатов.
кажись так
Disallow: *?cal_offset=*
Пропишите и попробуйте пробить через WMT
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
кажись так
Disallow: *?cal_offset=*
я же в первом посте написал что так и сделал.. * вконце не нужна
теперь WMT выдает сообщение
и еще тут указал, что урлы с таким параметром не индексировались
Но они до сих пор в индексе
теперь WMT выдает сообщение ...
Зайдите в "Конфигурация сайта" > "Доступ для сканера", отредактируйте пробный robots.txt, укажите страницу и проверьте, будет ли она доступна ботам.
Даже если страницы перестанут индексироваться, они продолжат находится в индексе до тех пор, пока бот не зайдёт обновить их содержимое. Изменённый robots.txt не срабатывает автоматически на весь индекс сайта.
Зайдите в "Конфигурация сайта" > "Доступ для сканера", отредактируйте пробный robots.txt, укажите страницу и проверьте, будет ли она доступна ботам.
Даже если страницы перестанут индексироваться, они продолжат находится в индексе до тех пор, пока бот не зайдёт обновить их содержимое. Изменённый robots.txt не срабатывает автоматически на весь индекс сайта.
Пишет что разрешено
А чего ссылки не сделать человеческие?
Пишет что разрешено
Разрешено при каком варианте запрета в robots, при том, который я писал? Отредактируйте ещё раз, потом ещё раз, пробуйте разные комбинации пока не получите запрет.
Пишет что разрешено
Покажи весь robots.txt.