- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Столкнулся с не очень приятной ситуацией из-за особенностей движка Webasyst и нашего любимого Яндекса.
Помимо продвигаемой странички
http://uggi.us/index.php?categoryID=559&category_slug=rezinovie-sapogi
Яша схавал страницу http://uggi.us/index.php?categoryID=559, которой я каг бэ не создавал.
И в поиске от апа к апу всплывает то 1, то 2 страница... И в итоге позиции в ж.
Тех. поддержка движка посоветовала отключить режим ЧПУ, но тогда то продвижение и ссылки(статьи навсегда), которые я покупал на http://uggi.us/index.php?categoryID=559&category_slug=rezinovie-sapogi, вылетят в трубу.. Больше внятного ничего не посоветовали.
В роботс.тхт страничку http://uggi.us/index.php?categoryID=559 закрыть от индексации не могу, т.к. тогда и продвигаемая закроется... На продвигаемой прописал метадискрипшн и кейвордс, но не помогло. Дальше уэе хз что можно делать - виоидмо менять движок.
Теперь вот уже и не знаю что делать. Сталкивалися ли кто-то с подобной ситуацией? Что можно сделать?
Как раз работаю с данным движком. Почему вы сразу не включили ЧПУ? Чем вам не угодили урлы вида shop.ru/category/rezinovye-sapogi/ ? С включенными, нормальными урлами проще управлять дублями.
Там, где вы размещали статьи - можно либо попросить поменять урл на новый, либо просто прописать 301 редирект со старого урла на новый.
Как раз работаю с данным движком. Почему вы сразу не включили ЧПУ? Чем вам не угодили урлы вида shop.ru/category/rezinovye-sapogi/ ? С включенными, нормальными урлами проще управлять дублями.
Там, где вы размещали статьи - можно либо попросить поменять урл на новый, либо просто прописать 301 редирект со старого урла на новый.
Вначале я об этом(что такое ЧПУ, какие могут быть проблемы и т.д.) вообще не знал, т.к. не было опыта работы с такими вещами и в частности вебасист.
По поводу смены урл ссылок - лучше бы так не делать т.к. они уже и около 2 -хмесяцев стоят.
Насчет редиректа объясните плз.
п.с. Изначально я создавал страницу http://uggi.us/index.php?categoryID=559&category_slug=rezinovie-sapogi, но в индексе появилась http://uggi.us/index.php?categoryID=559. Ее у меня не было намерниея создавать. Так что уж тут у движка проблемы, если создаешь страницу а потом яшка находит еще страницы, которые я не создавал и глючит.
это не маленький минус Webasyst ..
2 месяца не срок. Рекомендую поменять урлы и вообще провести комплексную работу над сайтом. чтобы спустя год не жалеть.
2 месяца не срок. Рекомендую поменять урлы и вообще провести комплексную работу над сайтом. чтобы спустя год не жалеть.
думаете смена двига не вариант? У меня ссылок накуплено больше чем движок стоит раза в два просто ) Вот по сути и решаю между этими вариантами.
А смена двига и установка ЧПУ, по эффекту будут чем-то отличаться? В обоих случаях урлы поменяются, только установка чпу - 1 галочка в настройках.
Насчет ссылок - 301 редирект
Для "вечных" размещение - свяжитесь с теми кто размещал и попросите заменить урлы, думаю большинство пойдут на встречу.
На самом деле вебасист можно довести до ума, главное найти опытного кодера + изучайте сео.
P.S. А зачем вы собственно выбрали categoryID=559&category_slug=rezinovie-sapogi основным урлом? Основной – просто categoryID=559 (аналог /category/559/ в ЧПУ варианте, либо /category/rezinovye-sapogi/ - так можно прописать в настройках категории вручную, либо скриптом транслитерации для всех разделов).
P.P.S. У меня сейчас другая проблема - яндекс почему-то уменьшает кол-во страниц в индексе и это не дубли, а просто выкидывание по 100-200 за ап. Написал в суппорт яндекса, надеюсь они там что-нибудь подкрутят, но пока молчат...
P.P.P.S. Можно пообщаться по icq, помогу советами.
Аналогичная проблема с Webasyst. Дело в том, что не ЧПУ ссылку яндекс каким то образом (через внутренние ссылки) находит раньше. После того, как он найдет страницу на нормальном адресе, он склеит две страницу с адресом ЧПУ страницы. (так случалось почти всегда)
В аське могу поподробнее расказать. три-два-три 1024
Выбирайте cms нормальный или программистов для наладки опытных.
Ставьте нелюдимую страничку через роботс в игнор...
Если я правильно понял Яндекс, то попробуйте добавить в robots.txt и проверьте роботс у себя на webmaster.yandex.ru:
User-agent: Yandex
Disallow: /*categoryID=559$ # запрещает '...categoryID=559', но не запрещает '...categoryID=559&category_slug=rezinovie-sapogi'
Или если точно по полному урлу страницу закрыть:
Disallow: /index.php?categoryID=559$
Спецсимволы отсюда:
http://help.yandex.ru/webmaster/?id=996567#996572
Там написано так:
Спецсимвол '$'.
По умолчанию к концу каждого правила, описанного в robots.txt, приписывается '*', например:
User-agent: Yandex
Disallow: /cgi-bin* # блокирует доступ к страницам
# начинающимся с '/cgi-bin'
Disallow: /cgi-bin # то же самое
чтобы отменить '*' на конце правила, можно использовать спецсимвол '$', например:
User-agent: Yandex
Disallow: /example$ # запрещает '/example',
# но не запрещает '/example.html'
User-agent: Yandex
Disallow: /example # запрещает и '/example',
# и '/example.html'
User-agent: Yandex
Disallow: /example$ # запрещает только '/example'
Disallow: /example*$ # так же, как 'Disallow: /example'
#запрещает и /example.html и /example
А смена двига и установка ЧПУ, по эффекту будут чем-то отличаться? В обоих случаях урлы поменяются, только установка чпу - 1 галочка в настройках.
Насчет ссылок - 301 редирект
Для "вечных" размещение - свяжитесь с теми кто размещал и попросите заменить урлы, думаю большинство пойдут на встречу.
На самом деле вебасист можно довести до ума, главное найти опытного кодера + изучайте сео.
P.S. А зачем вы собственно выбрали categoryID=559&category_slug=rezinovie-sapogi основным урлом? Основной – просто categoryID=559 (аналог /category/559/ в ЧПУ варианте, либо /category/rezinovye-sapogi/ - так можно прописать в настройках категории вручную, либо скриптом транслитерации для всех разделов).
P.P.S. У меня сейчас другая проблема - яндекс почему-то уменьшает кол-во страниц в индексе и это не дубли, а просто выкидывание по 100-200 за ап. Написал в суппорт яндекса, надеюсь они там что-нибудь подкрутят, но пока молчат...
P.P.P.S. Можно пообщаться по icq, помогу советами.
Спасибо за советы. Добавил вас в аську. Насчет выкидывания из индекса - особо у себя не замечал, но у меня и старниц немного.
Mills добавил 21.03.2010 в 17:54
Выбирайте cms нормальный или программистов для наладки опытных.
Ставьте нелюдимую страничку через роботс в игнор...
в том то и косяк, что этот адрес через роботс не могу отключить, т.к. тогда и отключиться адрес, на который ссылки закупал(не нужный адрес входит в состав второго)..
)
Mills добавил 21.03.2010 в 21:06
Если я правильно понял Яндекс, то попробуйте добавить в robots.txt и проверьте роботс у себя на webmaster.yandex.ru:
User-agent: Yandex
Disallow: /*categoryID=559$ # запрещает '...categoryID=559', но не запрещает '...categoryID=559&category_slug=rezinovie-sapogi'
Или если точно по полному урлу страницу закрыть:
Disallow: /index.php?categoryID=559$
Спецсимволы отсюда:
http://help.yandex.ru/webmaster/?id=996567#996572
Там написано так:
Спецсимвол '$'.
По умолчанию к концу каждого правила, описанного в robots.txt, приписывается '*', например:
User-agent: Yandex
Disallow: /cgi-bin* # блокирует доступ к страницам
# начинающимся с '/cgi-bin'
Disallow: /cgi-bin # то же самое
чтобы отменить '*' на конце правила, можно использовать спецсимвол '$', например:
User-agent: Yandex
Disallow: /example$ # запрещает '/example',
# но не запрещает '/example.html'
User-agent: Yandex
Disallow: /example # запрещает и '/example',
# и '/example.html'
User-agent: Yandex
Disallow: /example$ # запрещает только '/example'
Disallow: /example*$ # так же, как 'Disallow: /example'
#запрещает и /example.html и /example
Все правильно вы сказали))
Прописал - Disallow: /index.php?categoryID=559$
Теперь при проверке разрешен ли урл к индексации
/index.php?categoryID=559 - запрещен, а
/index.php?categoryID=559&category_slug=rezinovie-sapogi разрешен
Спасибо. Теперь надаеюсь все ок должно быть))