- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени. Месяца 4 назад веб-мастер переделал отображение страниц с вида "http://сервис-девайс.рф/index.php?main=ebooks&id=100315&name=624" на вид "http://сервис-девайс.рф/remont/jelektronnye-knigi/pocketbook/624/", предупредил что трафик на время уменьшится, и действительно уменьшился (на 4 мес уже), но вроде и не хочет подниматься. До того как переделали структуру трафик шел вверх на глазах. Что могло произойти? Много запросов улетели из топа яндекса и не возвращаются. И хотелось бы опытных посоветовать, какую самую необходимую внутреннюю оптимизацию сделать.
Редирект со старых URL на новые у вас был настроен?
С этим бы проседания почти не было, я полагаю.
А вообще, правильно говорят: работает - не трогай.
Редирект со старых URL на новые у вас был настроен?
С этим бы проседания почти не было, я полагаю.
А вообще, правильно говорят: работает - не трогай.
При переходе на старую ссылку попадаем на новый ЧПУ. Все норм было.
ИМХО не мало важно оставить старые ссылки, пока ПС новые не склеит. Я так делал, трафик не проседал. А то, даже с редиректом, Вы создаете дубли страниц
Dzed, у вас проблема дублей!!! где файл robots.txt ? canonical тоже не вижу.
Dzed, у вас проблема дублей!!! где файл robots.txt ? canonical тоже не вижу.
цитата мастера "Произвел глобальное обновление сайта. Пофиксил много мелочей. В связи с этим могут вылезти небольшие глюки, надо потестить.
1. Перевел сайт на ЧПУ. Теперь все адреса выглядят как
http://сервис-девайс.рф/remont/telefony/lenovo/
http://сервис-девайс.рф/remont/telefony/blackberry/8830/
Если человек переходит по старому адресу его перекидывает на новый, он даже не заметит. Все старые ссылки на сайте автоматически превращаются в новые, даже те которые были вставлены вручную в тексте.
Через какое-то время поисковики обновят индекс страниц, заметно улучшатся показатели в выдаче."
достучаться до него (админа) не могу, ftp открыт, файла robots.txt нет в корне, что нужно предпринять, чтобы исправить проблему дублей и канонических страниц
Если человек переходит по старому адресу его перекидывает на новый, он даже не заметит.
Это понятно, т.к. настроены 301 редиректы.
Но это не решает вашей проблемы. Вам нужно написать грамотный robots.txt. для начала.
достаточно ли будет добавить в файл robots.txt строку
Disalow: /index.php*
чтобы избавиться от дублей
Dzed примерно год назад я ставил несколько экспериментов, вывод - гугл дает больше трафика на не ЧПУ... не знаю почему, могу только предположить что ЧПУ является одним из признаков СЕО а гугл хочет чтобы все было натурально... (то есть в какой-то степени ЧПУ не натурально, может быть по статистике гугла СДЛ в большем проценте работают без ЧПУ...) не настаиваю на правоте... но эксперимент был на 10 тыс. стр. проведен.
Dzed примерно год назад я ставил несколько экспериментов, вывод - гугл дает больше трафика на не ЧПУ... не знаю почему, могу только предположить что ЧПУ является одним из признаков СЕО а гугл хочет чтобы все было натурально... (то есть в какой-то степени ЧПУ не натурально, может быть по статистике гугла СДЛ в большем проценте работают без ЧПУ...) не настаиваю на правоте... но эксперимент был на 10 тыс. стр. проведен.
у меня изначально яндекс индексировал 3000 страниц, в то время как гугл индесировал 12000-13000 страниц, сейчас в яндексе 2000, в гугле 10500. Но у меня основной поток клиентов идет из яндекса, до перевода на ЧПУ в сутки заходило 200-250 человек и поднималось, теперь 100-120. Как мне вырулить ситуацию с дублями, мой пост выше решит хоть немного проблему?
создал robots.txt вида
Disallow: /index.php*
Disallow: /glavnaja/korzina-zakazov/
Host: xn----8sbebjddvo6djeg.xn--p1ai
хуже не будет?
подскажите, выкидывать такой роботс в корень сайта? Хуже не будет?