- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Спасибо огромное
Добрый день всем! Из данного раздела много понял и принял к сведению, спасибо всем, кто не ленится объяснять новичкам нюансы работы Robots.txt. Но у меня так же остались вопросы, на которые я не нашёл ответов:
1) Если в поисковую выдачу попали сопли: /feed (940 шт); /pages (400) и /tags (около 240) и я закрыл их в robots.txt (кроме /*page), выпадут ли эти страницы после переобхода роботом из ПС или нет? Проблема актуально только для Яндекса. Гугл соплей не затянул в ПС.
2) Правильно ли у меня прописан роботс?
User-agent: *
Disallow: /wp-admin
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /feed/
Disallow: */feed
Disallow: */trackback
Disallow: */comments
Disallow: /go/
Disallow: /*?
Disallow: /*?*
Disallow: /tag
Disallow: /search
Crawl-delay: 10
Host: сайт
Sitemap: сайт/sitemap.xml
3) Не нашёл однозначного и толкового ответа относительно надобности закрытия пагинации от ПС для информационного сайта?
Заранее спасибо!
Здравствуйте.
Подскажите, Яндекс выдает ошибку на следующее содержание robots.txt.
В упор, не могу понять в чем ошибка - может пробел где-то не там или протокол не нужно указывать?
Сайт доступен и по HTTP и по HTTPS, в Host указан адрес с HTTPS.
[ATTACH]156407[/ATTACH]
[ATTACH]156408[/ATTACH]
уберите https://
его прописывают только в сайтмап
На версии https и http директивы Host ведут на https сайт?
уберите https://
его прописывают только в сайтмап
Хост указан верно, если есть https, то это надо указывать - https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml#host
А ошибка такая происходит из-за того, что в панели вебмастера сайт добавлен c http
Нужно добавить с https.
уберите https://
Ничего подобного https://yandex.ru/blog/platon/2778
А ошибка такая происходит из-за того, что в панели вебмастера сайт добавлен c http
Нужно добавить с https.
Добавлены обе версии.
Ошибка присутствует и для HTTPS версии сайта.
Добавлены обе версии.
Ошибка присутствует и для HTTPS версии сайта.
А когда настроен редирект с http на https? Судя по кешу гугла - не очень давно.
У меня было также на нескольких доменах при переезде на https, ошибка пропала, когда сменилось главное зеркало и в выдаче появилась версия с https.