И оно Вам надо? Ну, что бы Гугл его индексил. Проиндексит и наложит фильтры, за неуникальность контента. Вам будет от этого счастье?
Вот так: <link rel="canonical" href="http://site.ru" /> наиболее подходящий вариант, ибо
http://site.ru и http://site.ru/ - это разные урлы.
Вероятность размещения ссылок без конечного слэша на вашу главную гораздо больше чем со слэшем и реакция поисковиков при их обнаружении будет более быстрой.
Он даже вреден, при определенных обстоятелствах🚬
Ну что за бред?
Кому он нужен этот редирект?
Просто пишете на каждой странице её канонический УРЛ.
Он для того и нужен, чтобы при заходе по другому урлу бот мог определелить едиственный правильный (канонический) адрес страницы и больше ему нифига не надо.
Forexpros, Вы для начала в Гугл сайтмапс зарегтесь, сайтмап сделайте и т.д.
Там статистика даёт ответы на многие вопросы. По вопросам попадания под фильтры, в том числе.
Да и на аппеляцию чтоб подать нужно быть уже зарегеной.
tiswww добавил 19.03.2009 в 19:24
Нигде. Продажные ссылки кораются фильтрами Гугл. Читайте требования Гугла по обеспечению качества сайтов.
В последнее время гугл зверствует именно на этой почве. если не ошибаюсь, у вас есть RSS фиды?
Это единственный Ваш канал получения качественных ссылок. Для этого Вам необходимо:
1. Чтобы фиды постоянно обновлялись.
2. Тайтлы итемов фида должны соответствовать контенту страниц, на которые идут ссылки.
3. Регте фиды в агрегаторах фидов.
4. гугл и в этом случае может наложить фильтры, но Вы сможете их оспорить объяснив ситуацию наличием именно фидов на вашем сайте и их свободной доступностью.
PS: На страницах самого сайта, в обязательном порядке, должны быть качественные ссылки на сами фиды. Гугл не только индексит ссылки из фидов, но и сам их ищет☝
Если на вашем сайте ведется лента новостей, то Вы можете стать поставщиком новостей Гугл.
Для этого существуют специальные сайтмапы новостей, но предварительно ваш сайт должен быть одобрен как поставщик самим гуглом. Все это расписано в справке гугла для вебмастеров.
Да фигня какаято нездоровая с Гуглом творится.
Сайты падают, ако груши.
Почитайте соседние ветки.
Колбасит индекс уже второй месяц.
У меня обходит сайт, но как то странно.
На сайтмап - практически не реагирует (на новые) - толчется в основном по старым.
В индекс новые практически не пихает.
А как вы себе мыслите продвигать страницу по большому количеству запросов?
Для Гугла наиболее весомыми являются тайтл, кейворды и дескрипшин. Все они ограничены.
От того, что вы будете поднимать плотность ключей в тексте, не имея их в тайтле - пользы будет не очень много, разве что вы ПР до 7-8 собираетесь поднять.
У меня с одним сайтом неделю назад началось.
Из выдачи практически исчез, ну до 5-й страницы.
Googlebot обходит и в большом количестве, но:
1. Не идет на новые страницы их сайтмапа.
2. Нет изменений в индексе, как будто заморожен перечень проиндексированных страниц.
Нет ни добавления, ни изъятия.
А как проверить IP под фильтром или нет?
Вчера резко упал траф на сайте (с 2к до 200-300).
Сайт англоязычный но на украинском поддомене.
Сайт старый.
Googlebot/2.1 - ходит по сайту, как и раньше.
В индексе - некоторое падение числа страниц, но это нормально.
Проблемы с выдачей по низкочастотникам.