plab

Рейтинг
423
Регистрация
26.04.2010
rave_lm:
Много сообщений где гоняют теорию из ведра в ведро.
Поделитесь практическими результатами, кто какие мнения и выводы делает?
Читая блог яндекса для вебмастеров и здесь, предполагаю, что если уведомления не было, то ограничения наложены на определенные страницы, походу на все мои посадочные))
Просел трафик на 7 проектах, позиции скатились в топ30, редкие НЧ заходы остались.
Хочу сделать: выбрать 3-4 страницы на разных проектах, просевшие, и применить разные подходы, переписать текст, убрать текст, оставить часть текста, добавить нового текста.
Перед тем как слетело, на двух проектах проводил изменения, например на одном дописал текста уника на главную и разделы по пару тыщ символов, добавил таблицы, видео, короче разнообразил контент, это было по плану просто как бы, поперемещал блоки, в общем мелких изменений сделал не мало, но свалился он одинаково со всеми....
Или сейчас вообще ничего не делать и ждать нервно куря в сторонке....

Я не дергаюсь. Возможно сейчас яндекс собирает какие-то данные. Именно поэтому так сильно меняется выдача от апа к апу и даже внутри одного.

Баден-баден на самом деле может быть не просто алгоритмом определения переоптимизации, которую сложно вычислить по чисто количественным показателям (сколько раз употребил одно, сколько другого) и не ошибиться. Бывает контент, в котором, скажем, научный термин или название товара употребляется довольно часто и это норм. Поэтому в баден может быть заложена оценка поведенческих факторов. Плохие показатели скажут о бредовости текстов или засильи рекламы. Если при этом частота ключевых фраз высока, то присылается уведомление; если явного переспама нет, то вебмастер ничего не получает, хотя сайты будут под фильтром.

Поэтому на данный момент опуститься сайты могли из-за проблем с ПФ. Но! Разве гугл их не учитывает? С ним-то все ок.

В общей сложности сейчас яндекс кладет на первую страницу больше сайтов (в одних выдачах одни, в других - другие). Это больше данных для анализа. При этом он может:

  • Смотреть, какая выдача наиболее удовлетворяет пользователя. Эти сайты потом станут шаблоном для алгоритма как "хорошие".
  • Допустим, Яндекс сейчас не тронул крупные сайты, опустил средние, на их место поднял слабые. Далее сравнит что-то. Вернет как было или оставит как есть.
  • Допустим, Яндекс сейчас не тронул не столько крупные сайты, сколько сайты приносящие ему доход. Убрав тех, кто приносил ему малый доход и заменив их на пустышки, он вынуждает трафик идти на "свои" сайты.

Меня походу яндекс заставляет отказываться от слайдбанеров, мобильных фулскринов, кликандеров. Где все это оставил, продолжают понемногу просаживаться. Где убрал - хуже не становится, даже может быть лучше, но все в рамках сезонности и погрешности. Резких скачков нет. Только один сайт, с которого я убрал такую рекламу сразу, как он провалился, вернул свой яндекс-траф полностью. Но в то же время это сайт с самой маленькой посещаемостью из просевших. Возможно, когда траф был больше 1000 он попал под фильтр бракующий определенных среднечков, когда траф опустился меньше тыщи - сайт вышел.

Если яндекс все же банит не за наличие кода определенных рекламных бирж, а за низкие ПФ, то разве фулскрин сильно их ухудшает?

LawbreaK:

И вот это да, понятный логичный сервис, представляющий интерес и дающий реальную пользу. При должной оптимизации он будет стоять в топе по всему хвосту коммерческих запросов и общему ВЧ. А пять твоих сайтов с говнопростынёй, рерайтом и желчью на тему, отчего из-за того, что ты такой хороший, Яндекс не выводит сайты в топ, будут где-то там. И даже перешедших на него людей сможешь сконвертировать только предложив цену на уровне себестоимости говёного решения.

Если это относится ко мне, то у меня информационные сайты, половина которых принята в РСЯ. Остальные и не подавал из-за малой посещаемости и сырости проектов. И мне непонятно, почему скажем на запросы типа "Язык Pascal", "Клеточное ядро" теперича в Яндексе в первых рядах идут говностатьи с fb.ru и подобных, а не сайты, специализирующиеся на соответствующих темах.

По поводу коммерции, могу сказать как клиент. Обычно обзваниваю много фирм (в директе она, на первой странице или второй не важно). Выбор в основном зависит от качества телефонной консультации, найденных в интернете отзывов. Если перезванивают не в то время, что оговорено, не способны обсуждать детали, чувствуется пофигизм, развод, желание урвать, то мне вообще плевать какой сайт и его позиции в выдаче. Вы переоцениваете Сео. Но тут, надо признать, что часто тот, кто вкладывает в сайт, обычно вкладывает и в организацию бизнеса.

LawbreaK:
Перефразирую, SEM по прибыли клиентов куда как важнее при равных затратах на дистанции. SEO - это удел ниш, где конверсия равная по больнице. Но SEO - это нынче часть SEM, при том не основополагающая. Те же ПФ - это маркетинг, а не поисковое продвижение. Как и крауд-маткетинг (качественный, что вообще редко встречается). В хорошую нишу сайт только на SEO если и зайдёт, то с большими потерями по времени и деньгам.

Если утрировать, SEO - это набор текстов в общепринятых тегах форматирования + структура + внешка. Условный калькулятор, как страница информации, конверсии и задержки внимания - это не SEO.

Вы не учитываете человеческий фактор, часто портящий теоретически идеальные системы.

Когда кто-то профессионально разбирается в "механизме", то он знает все его составляющие, и к каким последствиям приводит изменение каждого. Проблема в том, что система непредсказуема (пусть отчасти), владелец поисковика всегда может поменять правила игры, изменив количество составляющих и способы их взаимодействия. Менять он их будет скорее всего в сторону своей выгоды, а не в угоду качеству. Например, если тесты покажут, что сайты с высокими ПФ дают яндексу меньше, чем со средним, то каким сайтам он отдаст предпочтение? После чего в вашем сео и сем появятся новые понятия "качества".

Я сомневаюсь, что даже в самом Яндексе есть люди, полностью разбирающиеся в поисковом алгоритме. Огромный код, сменилось поколение программистов. Начальник из "своих", который обычно ставит задачи, не понимая как они реализуются. Сотрудник, которому в принципе пофиг. Код изменяют в определенных местах, тестируют, как изменилась от этого система.

LawbreaK:
Ничего, что даже просто при обновление "привата от ФФ" выдача меняется? Я - самообучается, собирает данные и меняет топ для того, что бы узнать, на какие сайты на каких позициях люди действительно заходят. А ещё меняет заголовки на H1 для той же самой причины, проверить CTR на выдаче и дать оценку интересности сайта на SERP.

И, да, забудьте о статичных страницах. Вообще. Поиск будет динамичным.

Пример я уже приводил, запрос с амплитудой 1-17 доведён до уровня 1-5 (в xml - 7).

Допустим, яндекс стал рассуждать так: "Сайтов много. Даже если какой-то плох, то отдельные его статьи могут быть хороши. Почему эти страницы должны быть всегда на 50-м месте? Пусть конкурируют на равных с расположенными на больших раскрученных сайтах.

А что значит релевантная выдача, стоит ли за ней гнаться? Кому-то нравится одно, кому-то другое. А мне нужно поднять свои доходы. Запущу-ка я эксперимент и посмотрю будут ли они расти."

Если раньше какой-то сайт гарантировано был в пятерке, то теперь он в топе оказывается только, скажем, в 20% случаев. Что делать? Может быть клепать 5 сайтов на одну и ту же тему (какой-то один в запросе выстрелит), а не развивать единственный? Химия, химия для чайников, ЕГЭ по химии, химия в вопросах и ответах, решение задач по химии. Возвращаемся во времена сапы и сателитов.

Dreammaker:

BigData - это такая штука, что может учитываться что угодно, тем более это не так сложно с их ресурсами.

Тут другой вопрос - зачем?

Зачем учитывать то, что не имеет существенного значения (например, пол и посещаемые магазины), когда требуется найти ответ на конкретный вопрос (низкочастотный запрос, некоммерческая тематика). Если, например, выше поставить сайты, содержащие определенную рекламу, и пренебречь при этом качеством статьи, то в перспективе это риск потери доли рынка. Часть людей уйдет туда, где в выдаче будут ответы лучше.

Dreammaker:
релевантность она разная. При поиске кафе в дождливую погоду я предпочту крытое заведение, а в солнечную - летнюю площадку.

---------- Добавлено 04.05.2017 в 11:44 ----------




Вы смотрите в режиме гостя или анонимном режиме? Если в режиме гостя, то куки остаются.

Понятно. Яндекс.Поиск учитывает данные Яндекс.Погоды.

В мозиле это так:

Приватный просмотр с Защитой от отслеживания

Когда вы находитесь в приватном окне, Firefox не будет сохранять:

посещённые страницы
куки
поиски
временные файлы

В хроме:

Вы вошли в гостевом режиме

Страницы, открытые в гостевом режиме, не сохранятся в истории браузера и не оставят на компьютере следов, таких как файлы cookie. После того как вы их закроете, будут сохранены только скачанные вами файлы.
Merdigan:
Я думаю дело обстоит в другом ключе, я полагаю что яндекс показывает сайты всем разные, так как смотрит не на документы а на людей которые вводят запросы в поиск. Им известны ваши желания и ваши предпочтение, всем показывают разное. Не факт что мне вообще покажет ваши сайты. за 10 лет вы набили в поиск миллионы ключей в поиск они все в базе от этого и отталкивается яндекс.А почему нет?:)

Учитывает и в приватном просмотре (оно же "гость")?

За 10 лет менялись компьютеры, провайдеры, переустанавливались оси. Единственное по чему может идентифицировать - почтовый аккаунт.

Сомневаюсь, что такие сложные алгоритмы. Учесть предпочтения, чтобы показать соответствующую рекламу - это одно. Но на случайный запрос проанализировать сайты (большинство которых не посещалось никогда) и выстроить их по какому-то признаку данного пользователя - это что-то другое? Что это за признак? Предпочитаю я правое или левое меню, определенный движок, готов ли много прочитать, по половому признаку, какой браузер использую. Ерунда, так как какой смысл в этом? Для чего создавать такие алгоритмы, какая выгода? Выдача должна быть релевантна запросу. А не зависеть от того черный я сегодня или белый.

Приходят уведомления: Новых страниц - 0, удалено - 0. Хотя на паре сайтов новые страницы были добавлены еще неделю назад.

В гостевом режиме мозилы и хрома на один и тот же запрос яндекс выдает разные списки сайтов. Например, мой сайт в мозиле выпадает на второй странице, в хроме - на третьей. Совпадают первые два сайта. Пятый в хроме, в мозиле уходит в середину второй страницы выдачи. Если даже в гостевом режиме имеется доступ к истории, то я на этот пятый сайт не заходил.

У гугла и там и там выпадает одинаково.

У яндекса вроде всегда слегка перетряхивало выдачу, но не так сильно. Возможно сейчас изменили какой-то коэффициент, согласно которому сайты, не входящие в первую тройку-четверку, например, могут случайно занимать места с 5 по 25, а не так как раньше перемещаться только на 1-2 позиции.

Putin:
Пол рунета заказывает на копилансере комментарии. Все в топе?

Ничего не заказывал. Естественные, копились 7 лет.

Всего: 5734