- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
А если вот так ставить, все ?input по всему сайту автоматом редиректит на изначальную страницу. На одном из сайтов висит в поиске до сих пор 8*4200 (вернее проиндексирована со 2 марта). Посмотрю удалиться ли без лишних движений.
User-agent: *
Disallow:
Clean-param: input
А если вот так ставить, все ?input по всему сайту автоматом редиректит на изначальную страницу.
Если это не мешает общей функциональности сайта, то да, вполне можно реализовать. Но тут нужно аккуратней, чтобы правило редиректа не перекрывала другие get параметры, которые могут использоваться.
А общий признак URL-а действительно можно постараться закрыть через Clean-param (правда, только для Яндекса), Гугл будет игнорировать.
Если это не мешает общей функциональности сайта, то да, вполне можно реализовать. Но тут нужно аккуратней, чтобы правило редиректа не перекрывала другие get параметры, которые могут использоваться.
А общий признак URL-а действительно можно постараться закрыть через Clean-param (правда, только для Яндекса), Гугл будет игнорировать.
Если какая то страница продвигается, то по прямому урлу, собственно говоря все cannonical и редиректы для этого условно и придуманы.
Вы правы, как правило целевые страницы должны иметь чёткий ЧПУ URL, get параметры образуют листинги, условия сортировок и т.д., хотя конечно на форумах, например, страницы с профилями пользователей могут быть с get параметрами.
Надеюсь яша выплюнет страницу, а их происхождение очевидно скрипты и различные ajax запросы.
Должен выплюнуть, но процесс может затягиваться, поэтому наряду с закрытием индексации рекомендуется также вручную отправить заявку на исключение из индекса через Яндекс.Вебмастер.
Даже тот же скрипт с калькулятора 8*4200 , ну это откровенно смешно загонять в индекс такие страницы. Это явно недостатки робота.
У Яндекса много странностей (например, массовая индексация страниц с UTM метками) и казалось бы - Яндекса отчётливо понимает назначение этих страниц, но всё-равно может индексировать, если нет запрета на их индексацию через того же clear-param.
В общем, запрещайте через robots, ставьте canonical-ы (они вообще должны быть), отправляйте заявки на удаление ненужных страниц в индексе и ближайшую рабочую перспективу этого вполне достаточно.
Вы правы, как правило целевые страницы должны иметь чёткий ЧПУ URL, get параметры образуют листинги, условия сортировок и т.д., хотя конечно на форумах, например, страницы с профилями пользователей могут быть с get параметрами.
Должен выплюнуть, но процесс может затягиваться, поэтому наряду с закрытием индексации рекомендуется также вручную отправить заявку на исключение из индекса через Яндекс.Вебмастер.
У Яндекса много странностей (например, массовая индексация страниц с UTM метками) и казалось бы - Яндекса отчётливо понимает назначение этих страниц, но всё-равно может индексировать, если нет запрета на их индексацию через того же clear-param.
В общем, запрещайте через robots, ставьте canonical-ы (они вообще должны быть), отправляйте заявки на удаление ненужных страниц в индексе и ближайшую рабочую перспективу этого вполне достаточно.
Проставлю протестирую что поделать. Казалось бы ерунда, но у меня была проблема страницы новые по месяцу плавали то в топ то в бездну.Потом уже обосновывались...
Может быть это и есть причина на самом деле... Всем кто помогал огромный респект и уважение.
Просто где не читаю какие либо инструкции по cannonical везде пишут только про то, мол добавляйте его на страницах дублях, а ставить саму на себя плохой тон или вроде того.
Где "везде"?
Каноникал сам на себя - это нормально и часто спасает от подобной у тебя проблемы. Простым языком поясню: допустим, ты проставил на главную страницу каноникал на саму себя. Тогда на внезапно появившейся в вебмастере странице /?page=support (которой как бы нет) у тебя в коде будет стоять каноникал на главную. Сечёшь?
Правильно ли будет так , < link rel=“canonical” href=“https://site.ru/”/> разместить на главной? Или тут много лишних слэшей?
На конце слэш можно убрать т.е.
< link rel=“canonical” href=“https://site.ru”/>Просто где не читаю какие либо инструкции по cannonical везде пишут только про то, мол добавляйте его на страницах дублях, а ставить саму на себя плохой тон или вроде того.
Либо вы что-то путаете, либо ерунду пишут, - в авторитетных источниках такого написано быть не может.
Смысл в том, что на всех страницах с целевым содержанием вы указываете каноническую страницу, соот-но, как минимум и как максимум на оригинальной странице с указанным адресом будет эта запись.
Механика здесь следующая, каждый целевой странице прописывается свой canonical, соот-но, при этом все производные дубли (с get параметрами или страницы печатной версии) - всё будет указывать на тот адрес, который и рекомендуется поисковой системе как основной. Так что не сомневайтесь, указывайте.