- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
А когда настроен редирект с http на https? Судя по кешу гугла - не очень давно.
У меня было также на нескольких доменах при переезде на https, ошибка пропала, когда сменилось главное зеркало и в выдаче появилась версия с https.
Без редиректа. Google рекомендует оставить две версии доступными.
Только заголовок HSTS preload.
Добрый день, не были настроены параметры robots.txt для яндекса 2 года, только для гугла был и выглядел он так:
Disallow: /administrator/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /womens-clothing
Disallow: /womens-clothing/424-hip-pants-10
Disallow: /j2-cart
Disallow: /component/
Disallow: /*order_type
Disallow: /*?start=*
Добавил такое же и для Яндекса, апдейта еще не было и я волнуюсь что позиции ухудшатся из за выпада многих страниц из индекса, на данный момент(как бы это не казалось вам странным), сайт держит топ по своим тематикам.
Подскажите, возможно ли ухудшение из-за этого?
ЗЫ: каталог лежит в дерективе /shop и не закрыт, закрыты только страницы пагинации
Добавлены обе версии.
Ошибка присутствует и для HTTPS версии сайта.
Они признаны яндексом зеркалами?
При переходе на морду шлет на "Location: /?page_id=177" через 307. Избегайте использования временных редиректов типа 307. Поставьте человеческий 301. Временный редирект подразумевает, что старый сайт вполне можно оставить в индексе.
---------- Добавлено 18.10.2016 в 17:39 ----------
1) Если в поисковую выдачу попали сопли: /feed (940 шт); /pages (400) и /tags (около 240) и я закрыл их в robots.txt (кроме /*page), выпадут ли эти страницы после переобхода роботом из ПС или нет? Проблема актуально только для Яндекса. Гугл соплей не затянул в ПС.
Со временем выпадет
2) Правильно ли у меня прописан роботс?
User-agent: *
Disallow: /wp-admin
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /feed/
Disallow: */feed
Disallow: */trackback
Disallow: */comments
Disallow: /go/
Disallow: /*?
Disallow: /*?*
Disallow: /tag
Disallow: /search
Crawl-delay: 10
Host: сайт
Sitemap: сайт/sitemap.xml
А как это можно определить без знания домена? Проверяйте сами. https://webmaster.yandex.ru/tools/robotstxt/
Вставляйте подопытные URL и сверяйте ожидаемое с действительным.
3) Не нашёл однозначного и толкового ответа относительно надобности закрытия пагинации от ПС для информационного сайта?
Нет однозначного ответа. Как по мне в этом нет ничего плохого, если пагинация настроена верно. Установлены prev и next, стоит каноникал, уникализированы заголовки. Некоторые оптимизаторы просто закрывают всю пагинацию к чертям и подкрепляют свою точку зрения наличием правильно sitemap.xml
Ссылки по теме пагинации
http://seoprofy.ua/blog/optimizaciya-sajtov/pagination-for-seo
А вот доводы в сторону отказа от пагинации.
http://convertmonster.ru/blog/seo-blog/seo-paginacija-kak-postranichnaja-navigacija-vredit-seo/ Однако забавно, что у них же на блоге сделано ровно наоборот и пагинация вполне нормально индексируется.
Каким образом в robots.txt запретить индексирование ссылок на комментарии модуля Komento, которые я расставил под вступлением всех статей? Эти все ссылки оканчиваются одинаково, вот таким образом: #section-kmt
shullga для ответа на вопрос нужно знать пример URLа комментария. Приведите пример, доменное имя замените на что-либо.
Очень приятно удивлен оперативности обратной связи Яндекса.
Отправил я сегодня вопрос в поддержку Яндекса, цитирую:
> Старый адрес сайта: ***.com
> Новый адрес сайта: https://***.com
>
> Здравствуйте.
>
> Я прописал в директиве Host название сайта с указанием протокола, но в уведомлениях получаю ошибку:
> В директиве Host указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.
> Я проверил валидность файла robots.txt - без ошибок, но проблема не пропадает из уведомлений - "Проблема актуальна
> Проблема известна с 12.10.2016
> Проверено: 17.10.2016"
>
> Подскажите, как мне нужно отредактировать robots.txt и заменяет ли директиву Host пункт "настройка индексирования - переезд сайта"? То-есть, могу ли я убрать ее вообще, если указал главное зеркало в панели вебмастера?
Ответили за 1 час (был очень приятно удивлен, когда обращался в последний раз пару лет назад - отвечали через 2 недели)
Здравствуйте, Артур!
Спасибо, что сообщили нам о ситуации с предупреждениями для сайтов в Яндекс.Вебмастере. Мы проверим, по каким причинам данные предупреждения отображаются несмотря на корректные указания.
Между тем, все необходимое для склейки сайтов в группу зеркал и признания https://***.com было сделано. В течение нескольких недель робот отследит изменения и склеит сайты согласно заданным указаниям.
Нет, инструмент "Переезд сайта" не заменяет директиву Host. Данный инструмент позволяет сообщить роботу, что необходимо совершить проверку на возможность склейки сайтов. Тем не менее, для корректного выбора главного зеркала необходимо, чтобы сайты содержали явные указания на желаемое главное зеркало, поэтому директиву Host удалять не следует.
Здравствуйте.
Подскажите, Яндекс выдает ошибку на следующее содержание robots.txt.
В упор, не могу понять в чем ошибка - может пробел где-то не там или протокол не нужно указывать?
Сайт доступен и по HTTP и по HTTPS, в Host указан адрес с HTTPS.
[ATTACH]156407[/ATTACH]
[ATTACH]156408[/ATTACH]
Очень приятно удивлен оперативности обратной связи Яндекса.
Отправил я сегодня вопрос в поддержку Яндекса, цитирую:
> Старый адрес сайта: ***.com
> Новый адрес сайта: https://***.com
>
> Здравствуйте.
>
> Я прописал в директиве Host название сайта с указанием протокола, но в уведомлениях получаю ошибку:
> В директиве Host указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.
> Я проверил валидность файла robots.txt - без ошибок, но проблема не пропадает из уведомлений - "Проблема актуальна
> Проблема известна с 12.10.2016
> Проверено: 17.10.2016"
>
> Подскажите, как мне нужно отредактировать robots.txt и заменяет ли директиву Host пункт "настройка индексирования - переезд сайта"? То-есть, могу ли я убрать ее вообще, если указал главное зеркало в панели вебмастера?
Ответили за 1 час (был очень приятно удивлен, когда обращался в последний раз пару лет назад - отвечали через 2 недели)
Здравствуйте, Артур!
Спасибо, что сообщили нам о ситуации с предупреждениями для сайтов в Яндекс.Вебмастере. Мы проверим, по каким причинам данные предупреждения отображаются несмотря на корректные указания.
Между тем, все необходимое для склейки сайтов в группу зеркал и признания https://***.com было сделано. В течение нескольких недель робот отследит изменения и склеит сайты согласно заданным указаниям.
Нет, инструмент "Переезд сайта" не заменяет директиву Host. Данный инструмент позволяет сообщить роботу, что необходимо совершить проверку на возможность склейки сайтов. Тем не менее, для корректного выбора главного зеркала необходимо, чтобы сайты содержали явные указания на желаемое главное зеркало, поэтому директиву Host удалять не следует.
За последний год я не сталкивался с долгими ответами от Яндекса. Поддержку они наконец то организовали
Подскажите как правильно закрыть странички с такими адресами:
domen.ru/towarN/reviews/ ( товары разные).
Это странички для отзывов, которые пока не заполнены.
Как в robots.txt убрать результаты поиска сайта, что нужно прописать?
Урл идет такого плана http://domain.ru/?s=фраза
Как в robots.txt убрать результаты поиска сайта, что нужно прописать?
Урл идет такого плана http://domain.ru/?s=фраза
Запретить индексирование по маске domain.ru/?s