- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И давно так? Сколько прошло времени с момента скармливания страниц с новыми УРЛами?
Я бы роботу не давал вообще ни одной страницы со старой версии... Зачем тогда псевдостатику делали!?
И давно так? Сколько прошло времени с момента скармливания страниц с новыми УРЛами?
Я бы роботу не давал вообще ни одной страницы со старой версии... Зачем тогда псевдостатику делали!?
Прошло 4 месяца.
Я тоже не давал ни одной страницы, но ему тех ссылок, что он имеет в базе хватит по моим прикидкам еще года на два :D
Я иногда в логах нахожу запросы по внутренним ссылкам, которых не существует уже три года.
Псевдостатику делали, чтобы привлечь Рамблер и скормить новинки всем поисковикам.
В результате активно кушаются и старая, и новая версия сайта.
И слава богу..Сколько он там по старой версии будет блуждать меня особо не волнует. Получает 404 или 301 по запросам.
Та же фигня. Только не весь сайт, а один раздел сейчас переехал... Хотела сама обратиться за советом - да опередили :)
Интересует прежде всего ВИЦ. Возможно ли в подобной ситуации как-нибудь его сохранить или свести потери к минимуму. Дело в том, что на многие страницы есть внешние ссылки, которые уже не переделать...
Реально ли, оставив и старые и новые страницы, сделать так, чтобы яндекс их склеил как зеркала - но при этом главными посчитал новые? А со временем, когда содержание страниц значительно изменится и яндекс их расклеит - потери уже не будут столь значительными, т.к. новые наберут собственный вес в сети...
Прошу прощения, если идея бредовая ;)
Был подобный опыт перехода на новые адреса, mod_rewrite прикручивали, Яндекс нормально склеивал страницы, но далеко не всегда главными выбирал новые урлы. Ну и ладно, не настолько это важно, по моему.
Но тут проблема с Рамблером может быть, за дубликаты страниц вроде как пессимизируют, правда за какое их количество - тоже неизвестно.
Ну для меня это уже давно не проблема - Рамблер и так отпессимизировал сайт дальше некуда.
Спасибо. Так, в принципе, мы и собирались сделать. Только у меня не было до сих пор опыта склейки отдельных страниц сайта - боюсь, как бы яндекс не намудрил здесь...
Хммм... У меня задача сложнее... От старого сайта останется только информационное наполение! Новый дизайн, навигация, БД и пр... 🚬 Поисковики не склеят точно. Если не склеивают, то я получаю в 2 раза больше страниц в индексе поисковика - новой версии такими темпами не обновиться никогда... :) Именно поэтому хочется убрать все старое - 404 роботам.
А вот что делать с ИЦ (вИЦ, PR), ума не приложу... :( Как его передать?!... 😕
Тут, ИМХО, имеет большое значение откуда траф идет...
Что делать, если около 80% это поисковики (стандартная ситуация для большинства ресурсов)?
Вы выносите страницы из индекса и траф сокращается как раз на эти 80% - ситуация, я думаю, не самая благоприятная.
При этом новый индекс будет пополняться какое-то время (конечно, необходимо сделать все возможное чтобы этот процесс ускорить, но он все равно не будет мгновенным).
Наиболее разумно - выявить основные точки входа на сайт и отдавать новый контент под старыми урлами (этими точками).
Остальные старые страницы - отдавать 404 и закрывать в роботс.
А с ИЦ выход один - менять ссылки, писать письма и т.д. для наиболее весомых из них, забить на наименее значимые и как можно быстрее и больше ставить новые ссылки на новые страницы.
Илья Сегалович на конференции рассказывал про "умного" робота-склейщика, который склеивает не абсолютные дубли (до 60% "одинаковости")
К этому все и идет!..
Господа, а есть ли все-таки разница между 301 и 404 для поискового робота?