- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
У меня есть несколько проектов на битрикс, как личных, так и клиентских, в плане СЕО допиливать и допиливать эту цмс, разработчикам абсолютно безразлично на эту составляющую. Как не банально, но по сочетанию простота использования/результат могу посоветовать wordpress, там почти все задачи можно решить без участия программистов, ну или drupal+программер.
http://www.unmedia.ru/uvelichenie-prodazh.html/ - редиректит
http://www.unmedia.ru/uvelichenie-prodazh.html? - редиректит
http://www.unmedia.ru/uvelichenie-prodazh.html?/ - 200 OK
http://www.unmedia.ru/uvelichenie-prodazh.html?/uvelichenie-prodazh - 200 OK, etc...
burunduk, подобные дубли при желании влезут в индекс?
Все дубли закрыть невозможно.
_unmedia.ru/prodvizhenie.html?u=me
вообще-то, здесь нет дублей там или 301 или 404
200 там ни где нет :)
А генерировать ответ, отличный от 200 — проблема?
страницы с canonical получают статус "запрещено к индексации" после того как бот сожрёт тег link c rel=canonical и сравнит урлы, для чего он перед этим в хеадере должен получить 200, так что всё путём.
ведь к страницам, зарещённым к индексации в robots или метатегом таких претензий нет? (да и не может быть) ;)...
DiAksID, только вот проблема - нормальные страницы у робота может квоты не хватить ;)
страницы с canonical получают статус "запрещено к индексации"
к индексации??? Откуда дровишки?
к индексации??? Откуда дровишки?
из яшкиного вебмастера, например, никогда там не был 😂 ?
DiAksID, только вот проблема - нормальные страницы у робота может квоты не хватить ;)
так о том и речь, если хочешь беречь квоту - отдавай 404 и нафиг каноникал не нужен вообще (ибо и использоваться не будет), но если приходится используется каноникал (из-за ограничений CMS) то претензии к 200 некорректны всё по понятиям...
у робота может квоты не хватить
не надо стряпать шибко кривые шедевры и всё будет хорошо... ))
Pavel_, скорость переиндексации (например, при замене url) около полугода и это на сайтах до 200 страниц
для справки:
это просто переиндексация ;)
мощностей у пс не хватает
canonical это вообще то крайнее средство - когда CMS не даёт скрыть дубли от ботов никак иначе.
но до него есть одно хорошее, хотя и кардинальное, средство - послать подальше такую CMS...
никогда там не был ?
Не.
А что там так и написано - при встрече с какноникалом - отлуп на индекцию?
Пруф будет?
Потому что у гугла несколько по-другому:
Дальше - больше:
Как и раньше, мы будем стараться определять соответствующую каноническую страницу алгоритмически.
Я лично это понимаю как "индексируем всё, а вот что выдадим - на наше усмотрение. И хоть заканоникальтесь". ;)