- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
1. В связи с изменением структуры сайта у меня получилось, что в индексе Google есть страницы, которые имеют разные адреса, и одинаковый контент. Я уже дал инструкцию на запрет индексации таких страниц, но пока они в индексе. Может лучше удалить самому из индекса ?
2. Еще есть страницы, которые проиндексировались не в том видк как бы я хотел. Например с использованием в адресе "sort" , currency=RBL, и прочих ненужных вещей. Индексацию таких страниц запретил, но пока они в индексе. Может их тоже удалить или ждать пока Google сам все сделает ?
3. Вообще, в принципе, влияет общее колличество проиндексированных страниц на выдачу, или может удалить весь мусор и оставить именно то что нужно ?
удалять нет смысла, так как существует специальный тэг гугла именно для твоего случая
на страницах с идентичным содержимым в секции HEAD добавь
<link rel="canonical" href="http://www.example.com/URL" />
где href = адрес страницы без мусора (currency= итп)
подробнее
http://googlewebmastercentral.blogspot.com/2009/02/specify-your-canonical.html
и + мне в репу
robots.txt + sitemap = ждать
Совет выше также работает.
Poljot, в идеале это убрать дубли и почистить мусор, безусловно.
удалять нет смысла, так как существует специальный тэг гугла именно для твоего случая
на страницах с идентичным содержимым в секции HEAD добавь
<link rel="canonical" href="http://www.example.com/URL" />
где href = адрес страницы без мусора (currency= итп)
подробнее
http://googlewebmastercentral.blogspot.com/2009/02/specify-your-canonical.html
и + мне в репу
Я знаю этот тэг, но так как страницы сайта динамические, не возможно прописать такую команду. Потому и спрашиваю не удалить ли из индекса.