- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Миллионы сеошников каждый день ищут новые темы как получить больше трафа как выйти в топ и как набить пр, для этого мы анализируем свои шаманства на одном кто 5, 10, 20 сайтах и смотрим результат если большенство сайтов повысились значит шаманство работает и мы радуемся что просекли новую плюшку.
А что если существует несколько типов робот или несколько разных дата центров, тоесть если мы продвинули 20 сайтов одним и темже новым способом то поидее все 20 одинакового должны выстрелить тогда мы и видем общий результат. А если есть 20 разных робот и тогда тока на 3 из 20 сайтов мы заметим закономерность и поймем что фишка работает, а если есть 100 видов роботов с разным ранжированием и показателями. Тогда нам нужно 300 сайтов чтобы понять работает ли фишка. Да у них есть общий алгоритм, но часто бывает что у кого то слетает сайт а другого остается может мы не можем найти иногда закономерность из-за этого? Просто на месте гугл я бы так и сделал так бы я очень очень сильно услажнил работу сеошникам. Вообщем ваши мысли?
Я Вас сейчас до смерти напугаю! Помимо основного индексирующего бота существуют еще:
- Googlebot-Image (сканер изображений)
- Googlebot-Mobile (сканер для индекса мобильных устройств)
- Mediapartners-Google (сканер AdSense)
- Adsbot-Google (сканер AdWords)
Все эти боты приходят на Ваш сайт с нескольких сотен дата-центров компании Google, с совершенно разными ip-адресами. И что самое замечательное, проиндексировав Ваш сайт они хранят его страницы (как и страницы других сайтов, содержащих ссылки на Ваш сайт) в десятках разных ДЦ. И вот когда по какой-то причине один из ДЦ со страницами Вашего сайта становится недоступен (сломался, на ремонте, перезагружается и т.п.), тогда в результатах выдачи Вы можете не увидеть отдельные страницы своего сайта или увидеть их совсем не там где ожидаете.
да. то что существует несколько дата-центров я знаю несколько точнее 13 здесь кстати можно посмотреть какие из 13 еще не проиндексировали ваш сайт http://www.cy-pr.com/googledc НО походу СЕРВЕС НЕ РАБОТАЕТ на сайте.