- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ничего на ум не приходит после того, как каждое новое обновление поисковой базы приносит все новые и новые сюрпризы. 7000 - 6000 - 1100- 1500 - 2500 - 4000 - 1500
вот такая картинка каждый новый ап, где цыферки число проиндексированых страниц. Сайт по сути стоит на месте, ничего не добавляется не убавляется, структура не меняется. Отчего вот так прыгают позиции ?
Тоже заметил. В 2 раза больше показывается стр чем есть на самом деле
Тоже заметил. В 2 раза больше показывается стр чем есть на самом деле
Это может быть по нескольким причинам.
1. Дубли страниц, которые часто встречаются, когда сайт на cms;
2. Страницы печати, pdf, rss-ленты.
3. Страницы с разными параметрами считаются разными, всякие там ?type= или ?id= и бла-бла-бла.
днем показывал 1000 стр...сейчас 2000 тысячи. Не в дублях дело) Колбасит Яшу
да даже ни в день апа, тобишь такие вот параметры у меня держатся до следующего
Если в роботс.тхт запретить индексировать дубли и остальной мусор, то будет все нормально.
Есть сайт. В индексе 50 страниц, загружено роботом около 600.
Все 50 страниц это отдельные статьи и все в индексе и ничего не меняется.
Остальные 550 это дубли и прочее.
И трафик лучше идет, чем до запрета индексации дублей.