- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайту уже около 2 лет. Он зарегистрирован во многих каталогах и нормально ищется в поисковиках. Но, на подходе новая версия сайта и некоторые ссылки, если не сказать все, изменятся. Как в даном случае лучше всего поступить?
Можно конечно поставить переадресацию со старых ссылок на новые, но это не очень красиво смотрится и я незнаю как это воспримут поисковики.
Буду очень благодарен за любой дельный совет по даной теме.
Естественно, если поменялись адреса страниц, то надо через mod_rewrite или внутри движка делать редирект 301 на новые адреса.
Вообще, при любых глобальных изменениях, вам грозит изменение позиций. Конечно, есть шанс, что и в лучшую сторону. :)
В этом случае вы должны, фактически заново, поработать над оптимизацией сайта.
Перенести ссылки на новые страницы, подать в Яндекс на регистрацию, и ждать пока проиндексирует...
Спасибо за ответы.
Наверное я все-же сделаю редирект 301 внутри движка. Думаю так будет наиболее безболезнее для пользователей и поисковиков.
А насчет оптимизации, то я просто пытаюсь сделать сайт максимально комфортным для людей и что интересно, поисковикам это нравится, и особенно Google. Правда иногда я немного "подмазываю", но в целом особо оптимизацией не занимался.
Ну вот, стали появлятся нормальные вебмастера.
У меня аналогичная ситуация. Но я уже стал делать обработку через 404 ошибку. Только не через .htaccess а через скрипты - сделал базу соответствия старых и новых адресов страниц, и при заходе на старую страницу посетитель идет на новую.
Это совсем плохо или с пивом потянет?
- я думаю они все быстро исправляются :)
_DXlink
Если отдавать 404, то робот зайдет и просто удалит линк из своей базы. Если же дать 301, то он обновит линк в базе на новый. Мне кажется так быстрее все проиндексируется
Особенно, если быстро со страницами линков на своих сайтах разберутся. ;) А то уже этот "плач Ярославны" на форуме начинает напрягать. :D