- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день всем!
Недавно решил отредактировать роботс.тхт (запретить индексацию дублей). И пришлось поменять урлы на всех страницах, которые необходимы для индексации (потому что ссылка на отдельные страницы была вида category/статья, ну в таком духе.
Впоследствии редактирования файла и изменения урлов все позиции упали, некоторые страницы ообще вылетели из индекса. Само собой, сайт стал выдавать 404 ошибку.
Я не стал настраивать редирект, а просто удалил старые урлы из поиска.
У меня вопрос: через сколько времени страницы по новым урлам войдут обратно в поиск, и поднимутся на те же места ( по нескольким НЧ запросам сайт был в топе и топ-1), и что ещё необходимо доработать?
Ссылка на сайт
http://draim-star.com
Заранее спасибо. С уважением, Антон
надо ждать переиндексации страниц и смотреть.
а вообще - это вы с плеча, конечно, рубанули. редирект не лишний был бы отнюдь!
а вообще - это вы с плеча, конечно, рубанули. редирект не лишний был бы отнюдь!
Да поздно было уже делать его, я уже все урлы поменял, и перелинковку перенастроил полностью. Сейчас можно было редирект сделатЬ, опять же я из индекса всё удалил старое.
В общем, поторопился я конечно)
В идеале надо было сразу при написании статей указывать форматы урлов создаваемых страниц. Ну что ж, будем учиться на ошибках)🍾
Войдут через 2-3 апдейта, а вот позиции очень мало вероятно что вернутся быстро.
Впоследствии редактирования файла и изменения урлов все позиции упали, некоторые страницы ообще вылетели из индекса. Само собой, сайт стал выдавать 404 ошибку.
не некоторые - у вашего сайта только морда в индексе Я на данный момент..
http://yandex.ru/yandsearch?ras=1&text=&site=draim-star.com&lr=213
Я не стал настраивать редирект, а просто удалил старые урлы из поиска.
по возврату - солидарен с HEADHUNTER99, 2-3 апа и вернётся - но (!) не очень понял, как вы реализовали роботс - у вас закрыты на данный момент и draim-star.com/category/statji/ и draim-star.com/catalog/ и многое другое (равно как и всё, куда идет перелинковка из контента главной) - как робот Я должен увидеть ваши статьи, если фактически весь сайт закрыт от индексации?
http://webmaster.yandex.ru/robots.xml вам в помощь
Думайте, уважаемый, над роботсом, колдуйте - иначе может в индекс и не вернуться.
Да, кстати, если на сайт было закуплено ссылочное - то оно закуплено-то на старые урлы - редирект уже, нрн не спасет, но вес перенаправить надо бы.
Вносите правки в Robots и проверяйте через аддурилку Яши - будут ли добавляться страницы или они закрыты. По ходу сейчас вообще сайт грузится более 2 минут.... прямого отношения нет, но однако....
Спасибо большое за советы и за уделённое время!
Вот смотрите:
По сути, мне необходимо было оставить в поиске только конечные страницы статей, и обучающих курсов. А конечные были вида домен/category/название статьи, или инфо-продукта.
И получились соответственно дубли вида tag/, author/, catalog/, и т.д.
То есть прописывая в роботсе disallow: category/, я одновременно запрещаю не только страницы категорий, но и все статьи, так как они урлы у них все имеют вид category/статья
То есть надо было изменить урлы целевых страниц, чтобы они не зависели ни от каких категорий, а были совершенно отдельны, чтобы в роботсе спокойно запретить индексацию category
Вот, и я поменял урлы, теперь каждый отдельный пост у меня в формате draim-star.com/название
И роботс выглядит следующим образом:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /catalog
Disallow: /comments
Disallow: /category
Disallow: /tag
Disallow: /feed
Disallow: /author
Host: draim-star.com
Sitemap: http://draim-star.com/sitemap.xml