- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
День добрый!
На могли бы прояснить ситуацию. С чем может быть связано резкое уменьшение количества проиндексированных Гуглем страниц?
Несколько месяцев назад было 120-130 тысяч, а сейчас еле дотягивает до 60 тысяч.
Редизайн не делался. Страниц на сайте только прибавилось, их вообще около 400 тысяч. PR сайта не падал.
В чем тогда может быть дело? Почему Гугль так упорно не хочет индексировать больше? Ну либо хотя бы столько же, сколько индексировалось раньше??
ну понятно, что такое количество страниц нормалный человек не может написать, а значит это нагенеренние страницы.
даже если это легальные динамические страницы, то у гугла есть право предполагать, что это спам. особенно, если везде встречаются одинаковые тексты.
IMHO
Естественно страницы нагенеренные. Это каталог товаров, т.е. это страницы со спецификацией продуктов. Урл-реврайтер честно маскирует страницы под статику, т.е. в адресах страниц никакой динамики нет. Тексты естественно разные, за исключением общих частей лейаута - хедер, футер. Гугль индексировал в 2 раза больше довольно длительное время - около полутора лет. У аналогичных сайтов конкурентов даже с явной динамикой в урлах гораздо больше проиндексированных страниц.
Иными словами, слабо верится, что эти страницы Гугль расценивает как спам.
ну значит гугл обленился :)
Да нет... Странно все это, ума не приложу в чем загвоздка
на этих страницах нет линков на забаненые сайты? или "broken links"?
можете линки на проиндексированние и не индексированные страницы показать?
У меня ситуация аналогичная. Я думаю Гугл не индексит все страницы, потому что считает контент похожим по смыслу. Т.е. если ты продаешь например "Винчестер Самсунг 2300" на одной странице, а на другой "Винчестер Самсунг 4600", то он считает что нет смысла индексить каждую страницу с винчестером Самсунг.
Хммм... И неужели нет возможности заставить его индексить ВСЕ страницы, ну или хотя бы около того?
Несколько месяцев назад было 120-130 тысяч, а сейчас еле дотягивает до 60 тысяч.
А вы как оцениваете количество проиндексированных страниц, по цифре, выдаваемой Гуглем по запросу типа site:site.com? (Results 1 - 10 of about 97,000 from ...) Эта цифра же может не соответствовать реальности, а результаты дальше 1000-го недоступны.
Оцениваю по запросу allinurl:sitename.com site:sitename.com
Про то, что результаты дальше 1000-го недоступны я в курсе. Но судя по снижению траффика с Гугля после уменьшения проиндексированных страниц склоняюсь считать цифру более-менее точной.
Факт в том что несколько месяцев назад такое произошло со всеми крупными сайтами. Кол-во страниц снизилось почти вдвое.
Но реально на траффике это не отразилось, мне кажется что site: выдает неверные данные. На самом деле страниц с сайта попадающих в выдачу больше.