- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А может не надо было этого делать в принципе?
Какая разница - с www или без www. Это мешает как-то? Или влияет (задваивает страницы сайта)?
жуть... :( вы поменяли адреса проиндексированных страниц. Теперь поисковик их не видит и убирает из индекса, считая их удалёнными из содержимого сайта. К примеру была хорошо проиндексированная страница www.site.ru/about.html и вдруг завтра стала уже другой - www.site.ru/about2.html, но с тем же содержимым. Поисковой робот сочтёт за дубль новую, а старую удалит из индекса, так как она теперь выдает 404... имхо, не более, так как пока только учусь =))
А быть сайтом своим в поисковых системах с www или без - это чисто " человеческая фишка-фактор" Уже года 4 как допустимы сайты без w или с ним... Единственное недопустимо быть в сети в двух вариантах - будет дубляж всех страниц, соответственно понижение в выдаче всего.
webrock, интересное мнение… Про тупняки согласен, до Яндекса порой по году не доходит, где находится сайт, продолжает долбить по старому адресу, хотя и роботс, и редиректы.
А вот то, что редирект после утряски… Я всегда на авось ставлю сразу, и вроде бы ничего. Рассуждаю так: если до робота не доходит, что страница перенесена, он всё равно перекидывается на новый URL. Как бонус, отдаётся ему 301, может, быстрее дойдёт.
А ещё другим роботам, которые клали на роботс, сразу ясно, где и что.
Обычный домен у поисковиков считается как два сайта, один с WWW другой без (хотя Платон и утверждает что может их сам клеить, но в жизни это не так), позиции сайта получаются раздвоенными (есть в выдаче страницы с WWW и без и это не те позиции) Поэтому на доменах необходимо производить склейку. В файл robots.txt в самом конце добавляем запись
В вашем случаи после этого в вебмастере Яши ищем дубли и перенаправляем их на основные страницы. На сайте делаем 404 страницу. Обязательно карту. Желательно основные страницы по соц погонять например твитер. И как тока Яша склеит. Далее редактируем сайт .htaccess в него включаем такую надпись
Ну как то так:)
.htaccess с 301 редиректом и host в robots.txt все решает.
Ждите склейки, у меня подобный процесс затянулся на 2 месяца, трафик восстановился только через полгода.
DenTravel, по идеи должны востановиться подожди немного.
На гугле у меня все восстанавливается. Начал расти трафик. Да и рекламы адсенс в некоторых страницах начали показываться. Google работает на ура
Так тогда и домены нужно одинаковые сделать☝ Есть правило работает-не трогай.
хорошое правило :D