Slavomir

Slavomir
Рейтинг
107
Регистрация
05.12.2005
Утренний стояк:
ИМХО
Все же считаю что соотношение кол-ва страниц по
site:урл_сайта (все страницы)
и
site:урл_сайта/& (ценные страницы)
должно стремится к 1 и позволяет судить об одном из показателей качества сайта.

Еще бы понять, по какому принципу Гугл возводит страницы в ранг ценных. Проанализировал ситуацию у себя. Это точно не страницы, на которые есть переходы из поисковых систем или непосредственно из Гугла и это не страницы по которым переходят пользователи. Тогда что дает страницам такой ранг?

vagogrande:
А он под Пандой?
И гугл признал, что такое возможно (что позиции могут ухудшиться). Для этого они обещали инструмент снятия ссылок в вебмастере прикрутить

И давно обещали? Вообще-то, если уж они решили пессимизировать за внешнее ссылочное, то с создания такого инструмента и нужно было начинать + дать владельцам значительное время на чистку. Разгрести несколько тысяч ссылок, ведущие на сайт - это не так то легко.

Galina_Kiev:
Сайт
...
Ребят, хелп ми плиз!

Для начала попробуйте навести порядок в тегах заголовков. Использовать их для подписки на новости и новостей - это идиотизм. Еще больший идиотизм, когда заголовок верхнего уровня идет самым последним или когда три заголовка второго уровня идут практически подряд.

astronom_2:
У меня рост,но фильтр не снимается всё равно.Начинаю потехоньку закупать вечный без анкорняк:) 49 место всё равно не топ 10

Что делали отя бы для такого результата?

tyreinua:
Конкуренты практически никак не могут повлиять на ваш рейтинг или сделать так, чтобы ваш сайт был удален из индекса. Если вас беспокоит, что другой сайт ссылается на ваш, советуем вам обратиться напрямую к веб-мастеру этого сайта. Google собирает и упорядочивает информацию, размещенную на страницах в Интернете, но не отвечает за их контент. (c)

Откуда у вас такая уверенность? Есть факт рассылки Гуглом писем владельцам сайтов о том, что на их сайты ведут плохие ссылки. Есть выступление сотрудников Гугла на конференции. Еще более двух лет назад на этом форуме обсуждалось, то если поисковики начнут пессимизировать за внешние ссылки, то это откроет войну по утоплению конкурентов внешними факторами. И если против вас такую войну начнут, то никакие письма "веб-мастеру этого сайта" вам не помогут.

Васисуалий:
Кросавчеги. 100 000 за то, что мошенников назвали мошенниками)

Это уже пересмотренное кассационной инстанцией решение. Изначально 500 тыс. присудили. Вот так работают наши суды. Там такие перлы в решениях можно найти...

zZmeIOka:
Вот интересно. В этой статье говорится:

"Абсолютно легальные сайты могут быть заблокированы в качестве collateral damage, если они используют ту же инфраструктуру, что и сайт с противоправным контентом. Никаких механизмов предотвратить такую блокировку или быстро разблокировать сайт закон не предусматривает."

И что у нас получается - тотальный обвал хостеров, заваленных исками на некачественное предоставление услуг?

А вы уже забыли, как колбасило сайты на Агаве, когда к ним пришли забирать сервера какого-то файлового хостинга, размещенного там же? Если не ошибаюсь, все это произошло тоже из-за каких-то непотребных картинок. Теперь такие ситуации узаконят, причем в самом наихудшем виде. Может действительно пора перебираться на наиболее далекий зарубежный хостинг?

datot:
Плиз, список вибмастеров, которых посадили в тюрьму, в студию.

Сажать может быть пока еще и не сажают (во всяком случае, в нашей стране, т.к. за бугром есть пример с WikiLeaks), а вот репутационный вред за субъективное мнение пользователей сайта уже взыскивают http://kad.arbitr.ru/Card/b11c466b-9dec-4934-a809-57dc25a13703 . Куда дальше выведет эта дорожка, никому не известно.

Galina_Kiev:
Вы знаете, очень многие сходятся во мнении, что до тех сайтов, которые остались в выдаче фильтры и новый алгоритм все еще не добрался.
Вряд ли гугл оставит такие ГС в топе выдачи.

А что он оставит? Давно и хорошо известных монстров в надцати экземплярах? Может Гугл этого и добивается? Одни пойдут в AdSense, а другие смотреть больше страниц в поиске и больше кликать по рекламе. С момента введения алгоритма прошло уже 2,5 месяца. До сих пор не смогли научить алгоритм генерировать нормальную выдачу? Тогда зачем такой сырец вообще выпустили на свет?

Ох, что-то я выпал из SEOшных реалий. Вернулся, а тут такое твориться. 🍿

Мой сайт 25 апреля лишился 2/3 трафика с Гугла. ВЧ улетели в конец третьей сотни и за нее, СЧ улетели в середину первой сотни, НЧ тоже понизились. Фактически остался трафик по достаточно длинным и случайным низкочастотникам. Сайту уже более 10 лет. Помимо самого естественного продвижения (пользователи регулярно светили сайт то там, то здесь) продвижение осуществлялось по добротным тематическим сайтам. Сапой никогда не пользовался. Ссылки покупал только контекстные с расчетом на хоть какой-то трафик с них. Собственно, поэтому позиции в Гугле были не так высоки. Трафик с Гугла составлял где-то треть от трафика с Яндекса. Никогда не думал, что сайт может так улететь по совершенно непонятным причинам. Заглянул в Гугл-вебмастерс.Никаких писем по поводу сайта не поступало. Посмотрел в первом приближении входящие ссылки. Обнаружил некоторое ощутимое количество левых ссылок с каких-то непонятных дорвеев, созданных на бесплатных хостингах. Какие конкуренты или недоброжелатели это сделали и когда, остается только догадываться. Ах, да, еще контент на сайте давно не уникален. Тупая школота растиражировала его, глядя на топы в Яндексе. По фрагментам текста сайт в Гугле находится, но далеко не на первом месте.

Посмотрел выдачу по своим ключевикам. Это что-то феноминальное. Вот мои наблюдения по выдаче. В топе по ВЧ находятся:

1. Молодые сайты,в т.ч. с возрастом от нескольких месяцев. Видимо это происходит потому что у них еще нет сколь ни будь значимой ссылочной массы для фильтра, но уже набрали ее для ТОПА.

2.Сайты среднего возраста, которые особо не продвигались.

3.Старые сайты с хорошей ссылочной массой и большим количеством страниц (нижний порог более 60 тыс., но в основном - несколько сотен тысяч. Эти сайты как раз и выдаются многократно в топе в виде поддоменов третьего уровня и в виде множества отдельных страниц

Еще заметил некоторый примитивизм в оформлении сайтов в топе. Проку от такой выдачи не много. А если еще учесть, что при таком подходе алгоритма не за горами натуральное SEO-мочилово конкурентов, логика Гугла становится совершенно непонятной. Может быть это глобальная провокация с целью выявления тех, кто начнет метаться? Но какой в этом смысл? Сейчас даже ленивый владелец качественного и актуального сайта в той или иной степени занимается SEO-продвижением. Или нас заставляют пользоваться новыми инструментами Гугла, такими как Гугл+?

Хотелось бы услышать мнение сообщества по данным наблюдениям.

Всего: 943