- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, интернет-магазин
в идеале у нас ~2350 наименований товаров, 150 категорий, ну и главная)
итого около 2500 страниц.
Поменялся движок достаточно давно, но старые ссылки все висят в индексе. При этом роботс настроен верно, в вебмастере на удаление выставлены все ненужные каталоги.
Причем например запрос "site:l-o.com.ua" показывает что в индексе 6510 страниц
"site:l-o.com.ua/catalog" показывает 0 страниц
но вот что странно.
запрос "site:l-o.com.ua -site:l-o.com.ua/catalog" показывает 4160 страниц
так же и с запросами "site:l-o.com.ua/foкums/" и т.д.
Настроены так же параметры URL в вебмастере. Хотя и выставлено для всех параметров "Сканировать URL: никакие URL" эти ссылки есть в индексе.
Из-за всего этого мусора в соплях 99% сайта.
Как долго эти страницы могут вылетать из индекса?
я уверен, что на ссылки старого движка нигде ничего не ссылается.
я уверен, что на ссылки старого движка нигде ничего не ссылается.
Уверенны, что страниц не существует и отдается код 404?
По времени процесс удаления может затянуться на месяцы. Причём в вэбмастере нужно снова и снова отправлять запрос на удаление тех страниц, которые запрещены в роботсе - одного раза бывает просто недостаточно, если гугл очень редко заходит на сайт.
1. Открываем в robots.txt
2. Если страницы нет, отдаем 410. Если есть - отдаем noindex в meta-теге.
3. Ждем когда отваливается и закрываем в robots.txt
Бинарные опционы на Форекс что это такое
Очень в тему.
По времени процесс удаления может затянуться на месяцы.
Например у меня уже больше 3-х месяцев 404 страницы с выдачи не входят. Задолбали уже. Больше 30 000 удаленных (наплодил себе дублей). И удаление урла не помогает. 30 000 страниц по одной чересчур муторно удалять через ВМ.
Очень в тему.
Например у меня уже больше 3-х месяцев 404 страницы с выдачи не входят. Задолбали уже. Больше 30 000 удаленных (наплодил себе дублей). И удаление урла не помогает. 30 000 страниц по одной чересчур муторно удалять через ВМ.
Ну так Ошибка 404 означает, что запрашиваемый ресурс может быть доступен в будущем, что однако не гарантирует наличие прежнего содержания.
Что в переводе, сегодня хлеба нет, приходите завтра. Вот месяцами и висит.
Юзайте "410 Gone"
старые страницы были не ЧПУ, и все начинались с index.php и дальше много параметров
сейчас страницы ЧПУ, но с index.php тоже есть
я посмотрел, что старые страницы не отдают код 404 и тупо дублируют мне главную страницу
фильтров над главной не чувствую, но все равно нехорошо
вот и не вылетают походу
как быть?
и еще вопрос:
у меня в гугл вебмастере два домена, с www и без
основной домен давно указан, как в вебмастере так и роботсе (основной без WWW)
но ссылок 200 с www до сих пор еще в индексе
если я зайду в вебмастере в домен c www и поставлю весь сайт на удаление, удалятся ли страницы без www?
Создавал похожую тему более 1 месяца назад. До сих пор страницы не выброшены из поиска. Google тормозит с этим конкретно. Раньше страницы вылетали за неделю, а сейчас месяцами.
старые страницы были не ЧПУ, и все начинались с index.php и дальше много параметров
сейчас страницы ЧПУ, но с index.php тоже есть
я посмотрел, что старые страницы не отдают код 404 и тупо дублируют мне главную страницу
фильтров над главной не чувствую, но все равно нехорошо
вот и не вылетают походу
как быть?
1. или отдаем 410
2. или юзаем каноникал
3. или клеем с главной
4. или ничего не делаем.. так и будут 100500 дублей главной
и еще вопрос:
у меня в гугл вебмастере два домена, с www и без
основной домен давно указан, как в вебмастере так и роботсе (основной без WWW)
но ссылок 200 с www до сих пор еще в индексе
если я зайду в вебмастере в домен c www и поставлю весь сайт на удаление, удалятся ли страницы без www?
1. удаляем в вебмастере домен c www. ну оч интересно с какой целью он вообще добавлялся в вебмастер:))
2. клеем домены в .htaccess
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.site.com$ [NC]
RewriteRule ^(.*)$ http://site.com/$1 [R=301,L]
ну оч интересно с какой целью он вообще добавлялся в вебмастер
для выбора основного домена.
для выбора основного домена.
и что? для этого нужно добавлять домен в вебмастер дважды? с www и без?
человек же конкретно пишет:)
у меня в гугл вебмастере два домена, с www и без...