- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Да нет. Возможно. :)
+ Хром и Опера ;)
То есть я не понимаю.
Вы хотите сказать что Гугль использует данные ГА для ранжирования страниц в СЕРПе?
Утверждение ТС более общее, ГА далеко не на всех сайтах стоит.
Вы думаете невозможно считать показы и переходы на страницу в серпе? :D
А вы хотите сказать что вся посещаемость собирается из переходов с гугла что ли.
То есть я не понимаю.
Вы хотите сказать что Гугль использует данные ГА для ранжирования страниц в СЕРПе?
Такие ответственные заявления может взять на себя онли Мэт Катс :D
Речь идет о предположении, что поведение пользователя относительно запросов, как то отношение показов в серпе к переходам, процент отказов и т.д. учитываются Гуглом как один из факторов ранжирования. Не самые значимые, повторюсь.
Но попав на сайт понимают, что тут реферата нет и уходят. Разве это показатель, что мой сайт плох? ;)
Да, это показатель, что ваш сайт плох по запросу "блаблабла реферат".
На самом деле, открываем google.ru и смотрим, что там внутрях серпа.
А внутрях там каждая ссылка оформлена вот так:
Смотрим, что там делается в функции rwt()
В переводе с жабаскрипта на русский это значит вот что:
1. Изначально пользователю отдаются прямые урлы;
2. В момент нажатия на ссылку она подменяется на урл вида
3. И наконец смотрим, что же там находится по этой подмененной ссылке:
То есть имеем 302-ой редирект плюс установку куки, которая будет передана на гугл.ру при следующем поиске.
Вывод такой: гугл отслеживает все клики в серпе, и не просто отслеживает, а еще и строит историю каждого поиска. Если человек прошел по первой ссылке, вернулся в серп и прошел по второй - значит, первое место по данному запросу его не устроило. Если человек прошел по паре ссылок, затем вернулся в серп и уточнил запрос - значит, посещенные ранее ссылки его не устроили по уточненному запросу. Это очень ценная информация для ранжирования по конкретным запросам. Я кстати уверен, что анализируются только отказы - то есть ситуации, когда человек прошел по ссылке, а затем вернулся в поиск - это защита от накрутки.
Конечно, метод подходит только для результатов первой страницы - для остальных просто недостаточно статистики - но зато он позволяет очень качественно, вручную отранжировать топ выдачи по вч и сч запросам. А именно это гуглу и нужно.
Ну, теоретически возможен вариант, когда статистика собирается и затем никак не анализируется. Если вы уверенны, что дело обстоит именно так, просто подумайте, что гугл ради этой статистики в несколько раз увеличивает количество запросов к своим серверам, умножьте на количество обращений к гуглу в день или месяц и прикиньте, в какую сумму это обходится...
А вы хотите сказать что вся посещаемость собирается из переходов с гугла что ли.
Честно - не понял вопроса.
Такие ответственные заявления может взять на себя онли Мэт Катс :D
Речь идет о предположении, что поведение пользователя относительно запросов, как то отношение показов в серпе к переходам, процент отказов и т.д. учитываются Гуглом как один из факторов ранжирования. Не самые значимые, повторюсь.
Как предположении теория имеет право на жизнь. Возможно, в скором времени это будут использовать. Но сейчас я не вижу ни одного доказательства, что это работает.
devzev добавил 03.01.2009 в 16:39
Ну, теоретически возможен вариант, когда статистика собирается и затем никак не анализируется. Если вы уверенны, что дело обстоит именно так, просто подумайте, что гугл ради этой статистики в несколько раз увеличивает количество запросов к своим серверам, умножьте на количество обращений к гуглу в день или месяц и прикиньте, в какую сумму это обходится...
А вы обращали когда-нибудь внимание на немного другую выдачу в серпе когда вы находитесь в Гугле залогинившись?
Возможно, тут он её и использует.
Как предположении теория имеет право на жизнь. Возможно, в скором времени это будут использовать. Но сейчас я не вижу ни одного доказательства, что это работает.
Чуть выше человек хорошо подкрепил теорию фактами ввиде кодов гугла.
YuriDnepr добавил 03.01.2009 в 16:42
Возможно, тут он её и использует.
А "там" он её не использует? Почему?
Вывод такой: гугл отслеживает все клики в серпе, и не просто отслеживает, а еще и строит историю каждого поиска. Если человек прошел по первой ссылке, вернулся в серп и прошел по второй - значит, первое место по данному запросу его не устроило. Если человек прошел по паре ссылок, затем вернулся в серп и уточнил запрос - значит, посещенные ранее ссылки его не устроили по уточненному запросу. Это очень ценная информация для ранжирования по конкретным запросам. Я кстати уверен, что анализируются только отказы - то есть ситуации, когда человек прошел по ссылке, а затем вернулся в поиск - это защита от накрутки.
Конечно, метод подходит только для результатов первой страницы - для остальных просто недостаточно статистики - но зато он позволяет очень качественно, вручную отранжировать топ выдачи по вч и сч запросам. А именно это гуглу и нужно.
Ну, теоретически возможен вариант, когда статистика собирается и затем никак не анализируется. Если вы уверенны, что дело обстоит именно так, просто подумайте, что гугл ради этой статистики в несколько раз увеличивает количество запросов к своим серверам, умножьте на количество обращений к гуглу в день или месяц и прикиньте, в какую сумму это обходится...
Ради такого утверждения можно написать "умный" crawler который будет ходить по серпу, открывать сайты, делать отказы и т.д. Да и проверить просто.
Ради такого утверждения можно написать "умный" crawler который будет ходить по серпу, открывать сайты, делать отказы и т.д. Да и проверить просто.
Я думаю там учитывается ip. Можно конечно зомбонет запустить, но согласитесь это не самый распространенный метод черного сео. Может проще улучшить собственный контент, чтобы посетители оставались довольны?
А "там" он её не использует? Почему?
Не утверждаю, что он "там" не использует, даже наоборот, если учет отказов учитывается, то я только ЗА.
Но разница поведения группы лиц, общества, толпы совершенно отличается от поведения одного конкретного человека. Поведение индивидуума можно алгоритмировать, поведение толпы может быть непредсказуемо. К примеру, никто не будет накручивать сайт, чтобы он показывался себе же самому выше чем сейчас :)