- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
"синюю" ссылку на первом месте выдачи. без описания без ничего. Что бы
сие-то могло значить?
Как то месяц назад я такое видел по одному очень популярному запросу. И такие дела происходили непосредственно за недельки две (может чуть меньше до апдейта).
Что интересно у одного сайта ещё можно было свалить это на похожесть контента, но страницы другого сайта были абсолютно разные по контенту.
Возможно если страница имеет ПР меньше какого то значения известного только гуглу и у гугла есть хоть какой то зацеп к этому сайту/странице, то он его/её клеет и делает её недоступной в серпах. Когда сайт выходит из этих рамок он его разбанивает. Хороший метод борьбы со спамом получается...
А может просто у них база ссылок и снипеты в разных местах физически расположены (что скорее всего так и есть), и периодически у них винты со снипетами сыплются? :) Вполне вероятно ведь... Все равно ведь кэш обновляет каждый день - долго ли его восстановить, вот и хранят его на самых дешевых винтах.
шутка. хотя и не совсем веселая - сам страдал.
нету у них винтов. все в памяти.
Ага... В регистрах процессора.
Кстати, раз уж этот глюк наблюдается перед апдейтом/денсом/еще_чем-то_грандиозным, то может быть действительно они там так базу чистят? Типа по каким-то критериям определяют, кэшем какой страницы можно временно пожертвовать и киляют?.....
Час назад гугл в общем знал 900+ ссылках, пол часа назад о 691, теперь он знает о 821 ссылке....
Ох и странный этот гугл.
Час назад гугл в общем знал 900+ ссылках, пол часа назад о 691, теперь он знает о 821 ссылке....
Ох и странный этот гугл.
У меня такая ситуация постоянная, только индекс коллеблется от 17000 до 30000, каждый день у меня добавляется порядка 100 новых страниц и раз в пару месяцев удаляется соответствующее колличество. Гугл реагирует очень быстро, в течении максимум недели новые страницы имеют беленький барчик. Потом с денсом новые получают Пр 4-5.
так что изменения в индексе - не показатель пересчета. я денс замечаю по присвоению Пр (не нулевой)новым страницам. позиции плавают на +- 3 позиции по "важным" запросам постоянно, каждый день.
Я к тому что может это просто временный глюк, связанный например с тем же денсом, или ждать до след апдейта уже?
Да, кстати, а если эти пустые страницы (с точки зрения гугла) вручную гуглю в addurl все напихать, поможет?
Не пробовал, но наврядли поможет.
А может просто у них база ссылок и снипеты в разных местах физически расположены (что скорее всего так и есть), и периодически у них винты со снипетами сыплются? :)
Сниппетов не просто нет, сама ссылка имеет другой, я бы сказал весьма
нездоровый вид, т.е. сразу видно что страницы так обозначаемые не
вполне ещё члены так сказать клуба, или уже не вполне.
шутка. хотя и не совсем веселая - сам страдал.
Ну да, на одном. Китайском. Да и тот постоянно ремонтируют, так как
копят деньги на апгрейд спектрумов... где-то мелькнула
информация, что вся база занимает чуть больше 4-х гигабайт, так что...
Как то месяц назад я такое видел по одному очень популярному запросу. И такие дела происходили непосредственно за недельки две (может чуть меньше до апдейта).
Что интересно у одного сайта ещё можно было свалить это на похожесть контента, но страницы другого сайта были абсолютно разные по контенту.
Возможно если страница имеет ПР меньше какого то значения известного только гуглу и у гугла есть хоть какой то зацеп к этому сайту/странице, то он его/её клеет и делает её недоступной в серпах. Когда сайт выходит из этих рамок он его разбанивает. Хороший метод борьбы со спамом получается...
То, что такие случаи происходят массово перед большим пересчётом
всего и вся может говорить о том, что гугл чистит свою базу от
страниц которые по его мнению не значимы для базы в целом, к
примеру не имеют внешних ссылок и т.п. т.е. оставляет только тех кто
будет участвовать в пересчёте.
с общим напрвлением мысли согласен - гугл оценивает страницы по
какому-то критерию и и решает "казнить нельзя помиловать", и видимо
этот процесс не разовый, а как и весь гугл последнее время
непрерывно-волнообразный. Интересно будет посмотреть что останется на
дне кастрюли к осени (к выпуску их ценных бумаг)..... а на счёт банов
повторюсь - это пройденный этап, скорее всего ребята просто написали
очень хорошие саморегулирующиеся уравнения которые и играют роль
фильтров (как к примеру с той же пресловутой пенализацией за
переоптимизацию). Такой подход имеет одно очень нужное сегодня гуглоидам
преимущество - никто не сможет сказать (a'la Florida)"мой ништяцкий сайт был
выброшен из базы ни за что ни про что! Разве могут акции такого
"слепого" поисковика стоить так дорого??!!" т.к. вымывается только
откровенная гнильца... понастраивают они конечно ещё свои фильтры,
покрутят крутилочки...А баны в чистом виде это уже для 100% клинических случаев.