- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, пожалуйста, как глубоко индексирует страницы робот Гугла на сайте с ПР 0?
Глубина индексации от ПР не зависит, а зависит от внутренней перелинковки.
Глубина индексации от ПР не зависит, а зависит от внутренней перелинковки.
Зависит немного от РЕАЛЬНОГО ПР а не того что тулбар показывает.
В общем так тебе никто не скажет, кроме самого гугля.
Глубина индексации от ПР не зависит, а зависит от внутренней перелинковки.
Глубина индексации зависит от внешних ссылок, а именно от ПР, Траста и их Количества.
Глубина индексации зависит от внешних ссылок, а именно от ПР, Траста и их Количества.
Речь идет о глубине индексации, а не о индексации сайта вообще. Естественно, что чем больше ссылок на сайт, тем он будет чаще и лучше индексироваться. Но если при этом у него половина страниц будет просто "висеть" неприлинкованными, тут уж внешние ссылки не помогут (если они конечно не ведут конкретно на эти страницы).
Речь идет о глубине индексации, а не о индексации сайта вообще.
А в чем смысл Вашего вопроса?
Вы хотите узнать на сколько глубоко зайдет гуглбот на Ваш сайт при ПР0?
Что Вам это даст?
Тут наверное стоит ставить вопрос не "как глубоко?", а "как часто?" т.к. чем чаще бот будет посещать ваш сайт, тем соответственно больше страниц он будет кушать + грамотная перелинковка + частота обновления сайта (на новостных сайтах, которые обновляются чуть ли не каждые 5-10 минут бот Гугла считай прописывается) + PR (не тулбарный) влияет на частоту заходов бота если всё же сайт не новостной.
А в чем смысл Вашего вопроса?
Вы хотите узнать на сколько глубоко зайдет гуглбот на Ваш сайт при ПР0?
Что Вам это даст?
Это не мой вопрос :) У меня таких проблем нет :)
А в чем смысл Вашего вопроса?
Вы хотите узнать на сколько глубоко зайдет гуглбот на Ваш сайт при ПР0?
Что Вам это даст?
Смысл моего вопроса в том, что я хочу создать страницу для размещения внешних ссылок, которую не хотел бы, чтобы индексировал робот (без robots.txt). На страницу не будет вести никаких ссылок с самого сайта. Вот и интересуюсь, насколько глубоко ее нужно прятать?
Смысл моего вопроса в том, что я хочу создать страницу для размещения внешних ссылок, которую не хотел бы, чтобы индексировал робот (без robots.txt). На страницу не будет вести никаких ссылок с самого сайта. Вот и интересуюсь, насколько глубоко ее нужно прятать?
А вот это уже химия... ;) Не стоит такого делать (Не обмани ближнего, да не получишь навстречу.)
Смысл моего вопроса в том, что я хочу создать страницу для размещения внешних ссылок, которую не хотел бы, чтобы индексировал робот (без robots.txt). На страницу не будет вести никаких ссылок с самого сайта. Вот и интересуюсь, насколько глубоко ее нужно прятать?
кстати, интересно, узнать, а налагаются ли фильтры со стороны Google за такие действия.
(автоматически или по стуку?)