- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую, коллеги)
Уже с месяц наблюдаю странную картину с зарубежным проектом: после публикации на сайте отправляю страницу на индексацию через Search Console. На этом этапе все в порядке, страница благополучно попадает в индекс через положенное время. А вот на следующий день страницы в индексе уже нет. Еще день - страница снова в индексе и уже никуда не пропадает, занимая свое место в выдаче. У конкурентов ровно та же проблема. При этом аналогичный проект под РФ подобных проблем не имеет, никаких вылетов из индекса, хотя модели сайтов идентичны.
Если кто-то наблюдал подобное - делитесь наблюдениями.
Имеет и в RU. Всё тоже самое. Гугл меняет модель обращения с сайтами, уже писалось неоднократно, что не всё будет в индексе. Поскольку процесс автоматический, то лес рубят, щепки летят. Хорошие страницы останутся, говно уйдёт. Как любят писать в Яндексе: найдётся всё, но со временем.
Тоже наблюдаю такую картину в течении почти 2-х месяцев на двух русскоязычных и одном англоязычном сайтах. Вначале думал, что страницы попадают в "сопли", однако это не так, или не совсем так. даже если это и сопли, то какая то новая версия. По крайней мере, делал так: когда замечаю страницу вылетевшую из индекса, пихаю ее в аддурилку, и вуаля она снова влетает в индекс.
С чем все таки связана эта проблема не могу понять, т.к контент на страницах ,которые мерцают в индексе гугла - уникальный копирайт, соответствует тематике, сайты ссылками не торгуют, фильтров не наблюдается.
Если кто тоже сталкивался с такой проблемой и знает хоть какую то часть алгоритма и по каким критериям выбираются страницы гуглом для того, что бы их выкинуть из индекса - очень буду благодарен, если поделитесь.
В google.com.ua такого вроде не замечал
есть такое дело, как ни странно (так мне показалось, только imho) голый уник в таких случаях может и вредить, лучше его разбавить умеренно копипастом и ссылками НА топовых лидеров тематики, аналитикой и ютубом.
есть такое дело, как ни странно (так мне показалось, только imho) голый уник в таких случаях может и вредить, лучше его разбавить умеренно копипастом и ссылками НА топовых лидеров тематики, аналитикой и ютубом.
Хм... Мои наблюдения подтверждают ваше "imho" - в моем случае выпавшие из индекса страницы имели голый уник 100% Но если это так, то тогда налицо абсурдность данного алгоритма/части алгоритма и расхождение его с общей политикой гугл в отношении контента, которое гласит о том, что контент должен быть уникальным, тематическим и полезным и тогда должно быть счастье..
ну да алгоритм он сам себе на уме... думаю 100% уникальность и полезность в некоторой мере противоречат друг другу... с точки зрения алгоритма... ведь множественный копипаст как раз в некоторой мере подтверждает или является признаком полезности, копируют значит оно им этим людишкам зачем-то нужно, т.е. полезно, думает нейронная сеть гугла :) Сссылки на авторитетов это признак полезности из мира научных публикаций, там принято давать в конце статьи обширный список источников и схожих иследований, ну и в википедии тоже также, в конце мощной полезной статьи обязательно несколько десятков ссылок... компьютерный разум гугла скорее всего это осознает...
Это уже какие-то дебри фантазий. Ищите новость, где-то на инглише была.
Чисто технически идёт разгрузка индекса от лишнего. Гугл учится склеивать и выкидывать.
Кому-то повезло, кому-то не повезло. Ничего личного, антиукникального и прочей поросятины там нет. Одновременно с этим и лимитируется кол-во запросов на сайт. Это одна сторона медальки. А другая - если страницы нет в индексе, запрошенном через site или по url из Урюпинска, это не значит, что её нет в Москве. Это тоже сложный и автоматический процесс, который только-только отлаживается. Именно поэтому в Сёрч консоли до сих пор нельзя посмотреть список проиндексированных страниц, только кол-во, потому что меняется вообще принцип выдачи, гугл отсекает все левый действия и нагрузки.
Вот и всё.
имхо мощностей у него переизбыток, вот причина усложнения алгоритмов, мощу девать некуда. Много чего у него в реальном времени работает, без всяких быстророботов как у "я", некоторые удачные доры в 100 тыс. стр. индексируются практически мгновенно. с той скоростью какую хотящий сервер выдерживает, какой уж тут недостаток мощностей у гугла...смешно. То что вы думаете что многофакторный анализ и ранжирование в реальном времени фантазии это ваша личная беда.