- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Это мне добавить в файл или вставить заместо моих изысканий?
Cпасибо за ответ. Сейчас буду пробовать :)
Я написал, что примерно, Вы буквально поняли не проверил, сотрите правки, которые я рекомендовал. Проверил у себя, не работает из-за слеша / в категориях, было бы окончание .html было бы проще. Пока почитайте https://yandex.ru/support/webmaster/robot-workings/allow-disallow.html
После правок обязательно проверять доступны ли нужные категории и страницы к индексации.
NinaWhite, не нужно в УРЛе два раза повторять одни и те же ключевые слова - http://prntscr.com/mcw4mg. Или в ТОП очень хочется?
Теперь при аудите вылезают ошибки типа:
хотя в роботс закрыта пагинация - Disallow: /*?PAGEN* и дирректория /filter/ - Disallow: /filter/
похоже, что инструкции в этом файле robots.txt конфликтуют друг с другом, но проверка яндекс.вебмастера ошибок не показывает.
Что то я не так сделала?
Подскажите как закрыть это?
Просто программа или сервис, которым вы делаете аудит, не учитывает ваш robots.txt.
Использую для аудита Serpstat. Галочка напротив пункта "учитывать robots.txt при аудите" cтоит.
Вот текущий robots.txt
Только что провела аудит. вылезли все теже ошибки:
https://rosa-montazh.com/catalog/kotly/gazovye/?PAGEN_1=2&method=desc&sort=show_counter
https://rosa-montazh.com/catalog/kotly/gazovye/?PAGEN_1=1&PAGEN_2=1&PAGEN_3=1&kol=120&type_show=list
https://rosa-montazh.com/catalog/kotly/gazovye/?PAGEN_1=2&method=asc&sort=NAME
https://rosa-montazh.com/catalog/kotly/gazovye/?PAGEN_1=1&PAGEN_2=1&PAGEN_3=1&kol=60&type_show=pl
https://rosa-montazh.com/catalog/kotly/gazovye/?PAGEN_2=1&PAGEN_3=1&kol=180&method=asc&sort=property_PRICE
https://rosa-montazh.com/catalog/kotly/gazovye/?PAGEN_1=2&type_show=pl
https://rosa-montazh.com/catalog/kotly/gazovye/filter/clear/apply/?method=asc&sort=property_PRICE
Что не так то? Знает кто нибудь в чем проблема здесь или что?
Ваши Disallow перекрываются вот этой строкой:
Allow: /catalog/*
Уберите её.
Приветствую всех. Подскажите пожалуйста кто знает как закрыть от индексации ссылки вида:
site.ru/portfolio2679?page=1
site.ru/portfolio4658?page=2
site.ru/portfolio9ba9?page=3 и тд., нужно что бы индексировалась только основная site.ru/portfolio.
Заранее благодарен за ответ.
Можно так попоробовать:
или
Mars88, у вас вопрос несколько странный. В том плане, что по виду тут проблема с пейдж, и/или с генерацией чего-то после портфолио. Конкретней данные нужны.