- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Ответ google, значит автоматом, следовательно и выйдет автоматом, ладно поработаем над ПФ и откатим изменения которые проводились, если что доложу
Slavomir, вы сделали правильные выводы, но от вас ждут пенициллин, а не горячее молоко с медом.
В принципе, если предположение о выбранном Гуглом пути верно, его можно понять, но реализация этой концепции - полный абсурд. Допустим, что сайт с большим количеством страниц должен иметь какие-то преимущества в выдаче, но надо же понимать, откуда возьмется большое количество страниц. Либо это крупная организация, в которой контент генерирует большое количество сотрудников, либо контент создается пользователями сайта. Если ни то, ни другое не подтверждается (с имеющимися средствами поисковики вполне способны это проконтролировать), то надо присматриваться к сайту детально. В моей тематике в выдаче рулят два агрегатора. У одного на 700 тыс. страниц по большей части награбленного контента 82 млн. страниц в индексе, т.е. на каждую реальную страницу приходится более сотни генерированных страниц за счет комбинаторики. Сайт сделан в лучших традициях ГС-стрения и имеет неимоверное количество купленных ссылок. Другой агрегатор своего контента вообще не имеет. Все его содержимое - это миллионы страниц генерированных списков с фрагментами контента. Этот хотя бы передает свой трафик на источники контента. И с такой выдачей Мэт заявляет, что не хочет подсказывать спамерам, как спамить? Сам топ - большущая подсказка. Берите домен с многолетней историей, парсите контент с других сайтов, генерируйте как можно больше страниц за счет комбинаторики сграбленного контента, накупайте кучу ссылок и Гугл будет вас холить и лелеять. Не знаю, сколько еще просуществует данная тема, но она уже живет полгода в самом наотвратительнейшем виде, когда такие сайты занимают неимоверное количество позиций в выдаче. Возможно, в более мягкой форме она существовала и раньше. И с такой выдачей они рассчитывают заставить владельцев и оптимизаторов забыть о SEO и начать развивать свои сайты? Собственно, здесь уже не однократно звучала готовность перейти от полукачественной работы над своими сайтами к клепанию подобных ГСов, а на каждый вылетевший клепать три новых. И ведь многое из того, что сейчас ТОПах Гугла в Яндексе, как минимум, не в чести, а то и в откровенной ж..е. Или это целенаправленная диверсия? Гугл решил загнать в ТОП ГСы, чтобы профессиональные оптимизаторы проанализировали их параметры и начали подстраиваться под них, а дальше в дело вступит запатентованный алгоритм отслеживания манипуляций. Вот только профессиональные оптимизаторы - не дураки. Они не станут это делать на текущих проектах, а начнут клепать новые под эти правила, чтобы не жалко было, когда повылетают. А Гугл может пострадать от таких экспериментов настолько, что уже оправиться будет сложновато.
Или это целенаправленная диверсия? Гугл решил загнать в ТОП ГСы, чтобы профессиональные оптимизаторы проанализировали их параметры и начали подстраиваться под них, а дальше в дело вступит запатентованный алгоритм отслеживания манипуляций.
А вот здесь начинается тематика сайтов. Я уже много раз писал, что все началось прошлой осенью с большого скандала по поводу запроса car insurance в буржнете. Там в ТОП-1 вылез откровенный ГС и крупные страховщики наехали на гугл. Сайт был забанен и гугл был вынужден пообещать, что такое не повторится. Поэтому я считаю, что в первую очередь гуглу важны конкурентные коммерческие запросы, а по остальным запросам контроль идет по остаточному принципу. В моей тематике сейчас такого не наблюдается, есть немного ГС, но ТОП-3 гарантировано занимают нормальные сайты, просто сайтов много и есть из чего выбирать.
А вот здесь начинается тематика сайтов. Я уже много раз писал, что все началось прошлой осенью с большого скандала по поводу запроса car insurance в буржнете. Там в ТОП-1 вылез откровенный ГС и крупные страховщики наехали на гугл. Сайт был забанен и гугл был вынужден пообещать, что такое не повторится. Поэтому я считаю, что в первую очередь гуглу важны конкурентные коммерческие запросы, а по остальным запросам контроль идет по остаточному принципу. В моей тематике сейчас такого не наблюдается, есть немного ГС, но ТОП-3 гарантировано занимают нормальные сайты, просто сайтов много и есть из чего выбирать.
Не знаю. Может у вас тематика, в которой нет такого объема контента, чтобы подобное провернуть или ГС-клепатели еще не добрались до вашей тематики. В темах уже несколько раз приводили примеры, когда один сайт занимает несколько позиций в выдаче и даже примеры, когда один сайт занимает несколько первых страниц выдачи. Откопал один такой пример в недрах форума. Оказалось, что по запросу site:domain.com Гугл показывает, что у этого сайта проиндексировано 600 тыс. страниц. Подозреваю, что и в остальных подобных случаях ситуация аналогична. Гугл явно знает про эту проблему, т.к. явно видны подвижки к ее устранению, но полностью она по какой-то причине не устраняется, а главное, кучестраничный ГС все равно остается в ТОПе на одной-двух позициях. Фактор огромного количества страниц у сайта сейчас очень сильный. Гуглу осталось ввести фильтр на этот фактор, но это будет полный ППЦ. Хотя... Может быть введение графика "Not selected" в "Index Status" - это как раз подготовка к введению такого фильтра? Дают время владельцам сайтов посмотреть, проанализировать, подправить и сами поднастроют этот параметр, а потом как огорошат новым фильтром. Во всяком случае, Гугл планомерно ведет работу по истреблению факторов, позволяющих напрямую влиять на выдачу. Сначала панда, потом пингвин, потом домены с ключами. Посмотрим, что он срубит следующим.
Посмотрим, что он срубит следующим.
С его новыми алгоритмами, то следующий он сам и будет))) По запросу google не сможем его найти))
(https://topuser.pro/) Увеличить доход от РСЯ и AdSense (https://topuser.pro/uvelichit-dohod-adsense/)
когда один сайт занимает несколько позиций в выдаче
C Яндексом та же тема, я свой форум наблюдал в такой выдаче.
Господа, это только у меня за весь октябрь график показов/запросов в WMT принял другие значения, чем еще был вчера?
Крутят опять "чёй-то".
Господа, это только у меня за весь октябрь график показов/запросов в WMT принял другие значения, чем еще был вчера?
Крутят опять "чёй-то".
У меня тоже график изменил конфигурацию. "Это становится совсем интересно..." (с)
Стартующий проект с 60 скинул до 50
Другой более старый с 160 до 33
Один из основных с 2100 до 1600
А один старый вообще с 400 до 390
Очень странно,и нихрена непонятно!
Произошло сегодня днем!
Господа, это только у меня за весь октябрь график показов/запросов в WMT принял другие значения, чем еще был вчера?
Крутят опять "чёй-то".
У меня тоже и график поменялся и цифры совсем не те,что были, причем разница огромная.