AndrO

Рейтинг
9
Регистрация
28.04.2003
Интересы
путешествия
Как писал Interitus
Исходящие ссылки понижают PR (кстати, недавно спорили - а понижают ли исходящие ссылки PR ;)) - значит вашему сайту будет только хуже в Гугле.

Может не в тему, но вопрос ПОЧЕМУ так? Это же так удобно для пользователя, когда по каждому понятию в тексте сайта есть внешняя ссылка?

Как писал Smile

А вот пороги выросли не на столько сильно и не во всех разделах. :)

А как узнать пороги? Только экспериментально?

PS: Может кто подскажет порог примеси для раздела Программы?

Как писал Gray

Зачем так громко? Просто большинство роботов, получив 404, убьют страницу в базе. Да, он уловит редирект (возможно) и поставит новый адрес в очередь на индексацию. Но это не так скоро делается. А убить страницу - элементарно.
Не говоря уже о том, что есть роботы, которые, получив 404, дальше уже не пойдут.
Так что такое отдавать роботу просто нельзя :)

До конца я так и не понял. Ситуация у меня следующая:

Я почитал ваш замечательный форум и решил сделать небольшую реконструкцию :) В числе прочего разбил разделы по отдельным директориям и перенес все страницы из корня в соответствующие директории. Пока в базе Яндекса и Рамблера лежат страницы по старым адресам и со старыми именами. Я предполагаю, что при ближайшей индексации старые страницы будут удалены из баз, а новые туда будут занесены. Чтобы не терять пока трафик из поисковиков по несуществующим уже ссылкам я сделал .htaccess с редиректом 404 на корень сайта. Плюс этот редирект полезен если кто-то вручую будет набирать адрес и ошибется.

Теперь вопросы:

1. Могут ли за это забанить? Если такая вероятность есть, то я лучше обойдусь без трафика до следующей индексации. Цена вопроса - 10-15 уников в день (так как сайт еще не доработан и продвигать я его еще даже не начинал).

Как писал Gray

Просто большинство роботов, получив 404, убьют страницу в базе. Да, он уловит редирект (возможно) и поставит новый адрес в очередь на индексацию. Но это не так скоро делается. А убить страницу - элементарно.

2. Я и хочу чтобы старые страницы были удалены из базы. А новые проиндексированы. Но робот к ним придет по ссылкам из корня сайта, нет?

Как писал Gray

Не говоря уже о том, что есть роботы, которые, получив 404, дальше уже не пойдут.
Так что такое отдавать роботу просто нельзя :)

3. А если я не поставлю редиректа на корень робот все равно получит 404? Или я не прав?

Как писал vmegap


Проблемы возникнут обязательно. Так что не стоит.

С уважением,
Виктор

Почему? У меня стоит редирект 404 на главную страницу сайта. И я тоже недавно сделал реконструкцию и остались внешние ссылки, ведущие на несуществующие страницы. Это запрещено делать? Могут забанить?

PS: Почитал ваши намеки и убрал пока редирект от греха подальше😕

Попробую дать ответ зачем это нужно:

Чтобы отслеживать эффективность своих действий по оптимизации. Допустим твой сайт сейчас на 384 месте по данному запросу и на 786 по еще 25 интересующим запросам. Ты делаешь оптимизацию и хочешь проверить насколько она была успешной. И что делать. 25 раз листать по 50 страниц? А если оптимизация наоборот ухудшила твои позиции?


Динамику Рамблер индексировать может очень даже замечательно. Но для этого надо написать письмо в сапорт и попросить, поскольку ограничение снимается вручную и индивидуально для конкретного URL. Иначе Рамблер так и будет продолжать индексировать только html.

А если сайт сделан на PHP, но без динамики? То есть нет знаков ? в урлах. Тоже надо писать письмо или и так будет индексировать???

1 23
Всего: 26