- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Проверял со всеми сервисами
Если Вы не можете найти ссылки это означает лишь одно - Вы не можете их найти.
А сам ключевик имеет 40-50к шт/мес органик сеарч по Гоогле с buy+key.
И где же Вы смотрели эту статистику? И с какими параметрами (точное или широкое соответствие).
А вообще бессмысленно это обсуждать. Меня не переубедить, что https, скорость загрузки сайта и прочие рюшечки, на которые Гугл делает упор - фигня, реально работают ссылки и этот фактор перебивает всё, безоговорочно!
Если Вы не можете найти ссылки это означает лишь одно - Вы не можете их найти.
И где же Вы смотрели эту статистику? И с какими параметрами (точное или широкое соответствие).
А вообще бессмысленно это обсуждать. Меня не переубедить, что https, скорость загрузки сайта и прочие рюшечки, на которые Гугл делает упор - фигня, реально работают ссылки и этот фактор перебивает всё, безоговорочно!
Мда. Вот один пример, я на одну страницу получил около 50к беклинка, именно "50к". А он даже не в индексе Гоогле. Динамика беклинков было норм, каждый день около 1к - 1.2к получил, 80% ест. беки, без анкора, 15% с анкором типа "тут", остальные с анкором разные, и вот сижу и думаю в чем дело то? Пингвин? Но в ВМ нет сооб. о нарушение и беки были ест. и доноры с DR 50-90. Поделитесь что делать?
Мда. Вот один пример, я на одну страницу получил около 50к беклинка, именно "50к". А он даже не в индексе Гоогле.
Как давно страница на сайте появилась? Я наблюдаю подобную картину на своем сайте около месяца. У меня конечно не 50 к ссылок но по 20-30 внешних ссылок на страницы железно есть и они показываются в индексе только недели через 3.
---------- Добавлено 22.10.2018 в 14:07 ----------
Вообще, мне кажется последний google hangout ( https://www.youtube.com/watch?v=mDzkW2eX82s&t=220s) показательный и очень четко подтвердил тот факт, что как не старайся делать хороший сайт ты можешь попасть под раздачу только потому, что поисковые алгоритмы настолько сложные и их работа уже давно не зависит от одной какой то группы разработчиков или ассесоров, что их работу можно описать фразой "лес рубят - щепки летят".
Один вебмастер Джону задал вопрос, что сайт после последних апдейтов потерял 60% траффика и потуги Мюллера выглядят просто жалкими как-то объяснить почему вылизанный с тех. точки зрения сайт понес такие убытки. Посмотрите кто еще не видел и кто понимает англ. язык. Причем сайт и подробное объяснение проблемы Джон обсудил вместе с инженерами ( с его слов) и даже после этого не смог ничего сказать человеку, чей бизнес понес огромные убытки. Я понимаю что в эфире он скорее всего никаких конкретных недостатков указать и не мог. Но настолько убого выглядел Джон, когда вебмастер спросил его, "если бы это был твой сайт, чтобы бы сделал?" Он просто не знал что ответить.
Я думаю ответа на самом деле нет. Если тебе одна команда разрабов из гугла даст какой то совет, то другая работая над другими проблемами, может свести все усилия на нет, после очередного апдейта.
Как давно страница на сайте появилась? Я наблюдаю подобную картину на своем сайте около месяца. У меня конечно не 50 к ссылок но по 20-30 внешних ссылок на страницы железно есть и они показываются в индексе только недели через 3.
---------- Добавлено 22.10.2018 в 14:07 ----------
Вообще, мне кажется последний google hangout ( https://www.youtube.com/watch?v=mDzkW2eX82s&t=220s) показательный и очень четко подтвердил тот факт, что как не старайся делать хороший сайт ты можешь попасть под раздачу только потому, что поисковые алгоритмы настолько сложные и их работа уже давно не зависит от одной какой то группы разработчиков или ассесоров, что их работу можно описать фразой "лес рубят - щепки летят".
Один вебмастер Джону задал вопрос, что сайт после последних апдейтов потерял 60% траффика и потуги Мюллера выглядят просто жалкими как-то объяснить почему вылизанный с тех. точки зрения сайт понес такие убытки. Посмотрите кто еще не видел и кто понимает англ. язык. Причем сайт и подробное объяснение проблемы Джон обсудил вместе с инженерами ( с его слов) и даже после этого не смог ничего сказать человеку, чей бизнес понес огромные убытки. Я понимаю что в эфире он скорее всего никаких конкретных недостатков указать и не мог. Но настолько убого выглядел Джон, когда вебмастер спросил его, "если бы это был твой сайт, чтобы бы сделал?" Он просто не знал что ответить.
Я думаю ответа на самом деле нет. Если тебе одна команда разрабов из гугла даст какой то совет, то другая работая над другими проблемами, может свести все усилия на нет, после очередного апдейта.
Я вот уже 2 недели анализирую и понять логики не могу.Но она должна быть.
Я вот уже 2 недели анализирую и понять логики не могу.Но она должна быть.
Я 2 года. Ты еще веришь в свет в конце тоннеля?) 🤪
Я 2 года. Ты еще веришь в свет в конце тоннеля?) 🤪
Раньше хотя бы можно было составить конкретный и простой чек лист: 1. Техническая часть. 2. Контент 3. Ссылки.
3 основных фактора. И копаешь уже каждый по отдельности на основе конкурентов. А теперь уже прошерстил топы, проанализировал и вопросов наоборот стало больше.
Во первых и контент стал не так ранжироваться и ссылки уже не так действуют, или как будто действует только часть их.
В общем раньше было делай как все, а сейчас не понятно как делай, ведь вроде делаешь как все, а получаешь не как все)
По этому я думаю, как уже высказывались выше, задействован какой-то ещё фактор. Возможно действительно ИИ какой-то внедрили. И они сейчас его тестируют во всю. И первые тесты начались ещё в марте. И они мне кажется видят плачевные результаты. Пытаются лечить его, но выходит пока что плохо. По этому и вытаскивают обновы так часто. По тому что не лечится.
Петушиная и опущенная поисковая система, которая хер клала на наши сайты. В чем Вы хотите разобраться? Это модель поведения конкретных лиц, а не особенности работы алгоритмов.
Нынче в моде агрегаторы контента, с бесконечными простынями повторяющегося текста. Вот их и лепят в доменной зоне ua.
До сих пор сохраненную копию никак не починят.
Петушиная и опущенная поисковая система, которая хер клала на наши сайты. В чем Вы хотите разобраться? Это модель поведения конкретных лиц, а не особенности работы алгоритмов.
Нынче в моде агрегаторы контента, с бесконечными простынями повторяющегося текста. Вот их и лепят в доменной зоне ua.
До сих пор сохраненную копию никак не починят.
Они ее похоже специально убрали. Что не отслеживали результаты выдачи косвенно.
Romanov Roman, Починили
https://www.seroundtable.com/google-cache-bug-mobile-first-indexing-resolved-26551.html
Что за фильтр, когда не закидывает страницы в индекс? По консоли они в индексе, только нифига их нет в выдаче. Впервые с таким сталкиваюсь, с яндекса траф идет уже несколько месяцев.