- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Занялся оптимизацией совсем недавно, но за это время заметил, что несмотря на то, что все сервисы показывают, что в гугле каждый день происходит апдейт, в дейсвительности апдейта нет, сайты скачут то вверх то вниз, но как оказалось это просто две разные выдачи, сложилось впечатление, что гугл при каждом запросе разными алгоритмами находит выдачу, т.е. у него в памяти два алгоритма и две выдачи по каждому алгоритму соотвественно, и если зайти с одного и того же компьютера в течение 10-ти минут и набрать в поиске один и тот же ключевик, то выдача оказывается разная, причем разница в позициях не +-1, а +-30...Поделитесь плиз своими мыслями по этому поводу.
При этом +- касается не всех сайтов. Т.е. "летают" только те, у кого проблемы с продвижением :)
Что на самом деле с выдачей - сколько алгортмов, сколько вариантов выдачи сказать может только сам гугл :)
При этом +- касается не всех сайтов. Т.е. "летают" только те, у кого проблемы с продвижением :)
А что вы имеете ввиду под проблемой в продвижении? из-за чего сайт может летать?...единственное объяснение этому, которое я нашел это разный алгоритм...
а разные сервера вы не учитывали??
В гугле одновременно работают два алгоритма выдачи
А почему сразу не 10? У Гугла куча датацентров, в этом и ищите причины.
+1 за датацентры, автору топека изучать матчасть и структуру не только гугла а вообще поисковых технологий. Алгоритм один но часто меняющийся.
А почему сразу не 10? У Гугла куча датацентров, в этом и ищите причины.
Мне тоже кажется, что именно в этом дело.
Хотя у Гугла всего много. :) Может, и алгоритмов тоже.:)
Т.е. по вашему мнению Гугл глючный...на всех датацентрах апнулось, а на одном уже недели две никак не апается...
Да при чем тут апы? Вы прочитайте, что пишут-то - в географии дело.
Если человек постоянно заходит с одного IP и одного компа (не меняя настроек браузера), то география и разные ДЦ тут навряд ли причина.
то география и разные ДЦ тут навряд ли причина.
очень даже и влияет, датацентры не изолированны друг от друга... постоянно проходит обновление индекса... на время, локальный дата центр может выпасть из выдачи, его подхватят другие... да много чего может случиться... это здоровенная распределенная сеть! а не один задрыпаный серверок