- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
по яхе - о каком именно сайте идёт речь? (выдача разная)
ЗЫ: тема вообще про гугл, но я непротив и по яхе посмотреть на такое "чудо". Только ещё раз уточню... - если речь идёт про несколько кешей - то соответственно должна быть одна и та же страница, а не разные...
Если вам чуждо наличие у поисковика (у Yahoo и MSN тоже) нескольких кешей и тот факт, что разные запросы могут храниться на разных компьютерах физически, то нам не о чем говорить :D.
Сейчас кину пример в личку то, что можно сейчас показать, и больше говорить нам не о чем :).
ну про это я кажется не говорил...
у каждого поисковика есть свои датацентры... и несколько ботов... я не спорю о том, что разные боты забирают страницу и кладут её в кеш, а потом синхронизируют в общей базе... то что вы показали на примере яхи - это всего лиш ещё одно доказательство её "тормознутости"... в гугле тоже есть такая история... только он клеит в общей базе всё гораздо быстрее...
это не несколько кэшей - это издержки кластерной системы...
Ну так правильно датацентр - это машина, а кеш хранится на этой машине. Много датацентров - много кешей. Но одна и таже страница выдается с разных датацентров одному и тому же пользователю - вот где собака.
Здесь подразумевается, что кеш - это то что сохранил гугл при обходе страницы; а то, откуда берутся результаты для выдачи - это другое (я его тоже назвал кеш, мне так проще). То, что показывается по команде cache: это один из этих кешей - главный, с которым потом все синхронизируются, но в выдаче он сразу может не учавствовать.
Я ж говорю, что было 3 разных страницы в один и тот же день, потом все устаканилось.
Гугл видно не справляется с объемами информации, и туда-сюда идут всякие откаты баз и восстановление из старых кешей.
Тот пример, что я показал для yahoo - вообще разница в месяц между страницами и до сих пор идет трафик. Для гугла я имел ввиду тоже самое, но сайт очень часто индексируется.
Ну так правильно датацентр - это машина, а кеш хранится на этой машине. Много датацентров - много кешей. Но одна и таже страница выдается с разных датацентров одному и тому же пользователю - вот где собака.
Ну правильно. Когда я говорил про разные серверы гугла, я имел в виду датацентры. С несколькими КЭШами я пока не сталкивался, а вот с разностью PR встречался. У одного и тоже урл с русского IP PR больше, чем с американского.
Ну правильно. Когда я говорил про разные серверы гугла, я имел в виду датацентры. С несколькими КЭШами я пока не сталкивался, а вот с разностью PR встречался. У одного и тоже урл с русского IP PR больше, чем с американского.
Вообще-то весь этот разговор из-за чего, потому-что я думаю, что гугл ведет хистори изменения контента у страниц, хранит их отдельно, сравнивает, и что-то там решает как быть. Вот это я назвал разными кешами. На самом деле может оно и хранится на одной машине, но несколько копий того же самого файла. Естественно, что хранить копии всех страниц нереально, по-этому это хистори, наверное, подчищается через какой-то промежуток времени, - и для сайтов, которые редко меняют контент в кеше лежит только одна копия страницы.
Тоесть, с вашего позволения я переформулирую свои слова: у гугла не несколько кешей, а он может хранить несколько копий одной и той же страницы.
А чтобы как-то завязать все это к теме топика, можно сказать, что - нафиг вам все эти махинации с ПР, делайте нормальные сайты и получайте прибыль :)
Balabass, а ты разве по таблеткам не замечал что одни и теже редиректы redi и 6x тусуются на разных страницах по одному запросу? Я тогда думал что это ты химичишь :) И если бы у них киворды и фиды умаксовские разные были - понятно...я тогда так и не разобрался в чем дело, а сейчас вообще от таблеток отошел
это просто "косяк" гугла... там небыло и нет хитростей...
да и сейчас такое наблюдается иногда...
мне кажется эта ошибка кроется в ихней "рандом" технологии неокрепших ссылками (и/или новых) страниц...
ты все таки веришь в рандом ?
я не верю... я его вижу... :)
у новых в серпе сайтов или сайтов с постоянно меняющимися бэками есть рандом примерно 30 позиций (по моим наблюдениям)...
попробуй порефрешить гугля, особенно это заметно с 20-40 серпы... на томде ДЦ... хотя щас это стало менее заметно, а вот месяц назад - вообще можно было это заметить невооружённым глазом...