- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Я тут недавно сам узнал новый(для себя...) алгоритм ранжирования гугла. Не знаю, может он уже всем известен, но я пишу сюда т.к. нигде не разу не читал про него. Так вот, ближе к делу:
"Чем больше посетителей прошло через страницу тем выше она в серпе, но как только на эту страницу перестанут идти новые посетители, она резко падает"
Личный пример:
Есть у меня сайтик с программами, лил я на некоторые страницы траф с новостной системы обмена посетителями (типо маркетгида), и как не странно все эти страницы были в топ1 гугла по своему запросу, даже не полному(хотя эти программы были на тысячах других подомных сайтах), Но как только закончился приток посетителей на эти страницы, они резко вывалились из выдачи...
Можете ругать меня если это старый всем известный алгоритм, но я не читал о нём нигде и убедился сам и хочу поделится с вами, может кому пригодится:)
"В топе потому, что он в топе"?
Если бы это было правдой, то в топ бы выводили сайты накруткой посещаемости :)
Просто совпали факты и не более
один из факторов ранжирования. Их много. Так же, ТС, добавь туда процент отказов
один из факторов ранжирования.
На мой взгляд-Основной
Так же, ТС, добавь туда процент отказов
Не было такого:)
Всё же я уже где то слышал такую теорию и так как мозилла, хром и сафари так сказать партнёры с гуглом это не исключает то что гугл может просто собирать спомощью их данные о посещаемости - типо пешки разведчики О_о Кароч в топку такой алгоритм ибо попалит сцуко все сателиты.
Не было такого:)
был, есть и наверно пока будет. Если процент отказов меньше 30 - го топ.
Ну а что в принципе, это не сложно проверить насколько я понимаю.
Берется Wiresark (бывший Ethereal), на машину ставятся всевозможные разновидности браузеров типа:
* FF
* FF + GoogleBar
* Safari
* Chrome.
И вперед -- парсить логи. Если при посещении страниц нету никаких "странных" запросов на сайты типа google.com или, как предположение, на сайт производителя то соответственно все вышенаписанное не имеет под собой никаких оснований. Если же наоборот, то можно предположить что да, но на 100% быть уверенным все равно сложно. Откуда знать куда и для чего конкретно эти данные отправляются.
Ну а что в принципе, это не сложно проверить насколько я понимаю.
Берется Wiresark (бывший Ethereal), на машину ставятся всевозможные разновидности браузеров типа:
* FF
* FF + GoogleBar
* Safari
* Chrome.
И вперед -- парсить логи. Если при посещении страниц нету никаких "странных" запросов на сайты типа google.com или, как предположение, на сайт производителя то соответственно все вышенаписанное не имеет под собой никаких оснований. Если же наоборот, то можно предположить что да, но на 100% быть уверенным все равно сложно. Откуда знать куда и для чего конкретно эти данные отправляются.
Сто раз уже парсили (сам лично даже логи у Kerio изучал). Никто и ничего не отправляет.
Мало того, ставили эксперименты много раз по клику в серпе по определённому сайту. Практика не подтвердила вашу теорию.
Сто раз уже парсили (сам лично даже логи у Kerio изучал). Никто и ничего не отправляет.
Мало того, ставили эксперименты много раз по клику в серпе по определённому сайту. Практика не подтвердила вашу теорию.
Это не моя теория. Собственно я то что вы говорите и подозревал. Просто в топике несколько человек гадают может быть/не может быть. Если данные не уходят такого быть не может. Я всего лишь преложил самый простой вариант проверки. Но если вы ставили эксперименты даже кликая на сайт то тогда тем более все понятно.
ИМХО бред.
Правдой и не пахнет. Пока. Пока не пахнет.
Не сбивайте людей с толку, почитайте высказывания представителей гугла на последних конференциях и Вам откроется правда;)