- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день уважаемые господа. Суть вот в чем...
Пытался сделать для своего сайта на WordPress хороший robots.txt, но по итогу просто взял его в интернете. По запросу "robots для wordpress" мне выдало довольно неплохой с виду файл, в котором я не заметил одну интересную строку:
Disallow: /*p*
А у меня на сайте все посты имеют ссылку типа (.ru/?p=*), и вчера я проснулся с удивлением обнаружив что трафик семимильными шагами летит вниз, а страницы выпадают из индекса.
К тому моменту пока разобрался, робот гугла полностью прошелся по сайту и не оставил в индексе ни одной страницы (ведь только посты и планировалось оставить).
На данный момент изменил robots.txt вот на такой:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /tag
Disallow: /?s*
Disallow: /?m*
Disallow: /?cat*
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /tag
Disallow: /?s*
Disallow: /?m*
Disallow: /?cat*
Host: ***
Sitemap: http://***/sitemap.xml.gz
Sitemap: http://***/sitemap.xml
Кто может подсказать, какие действия еще предпринять, что бы поскорее вернуться на позиции, сколько это занимает времени если просто ждать, и можно ли это как-то ускорить?
в панели search consol инструмент посмотреть как гугл бот->потом добавить в индекс. Можно пройтись по самым важным страницам, остальные подхватит и так за пару дней, это же не яндекс (если роботс правильно настроен снова)
Мне кажется, причина не в robots
В гугле есть инструмент посмотреть как теперь гугл видит странички после того как вы позакрывали плагины и так далее... Маркер посмотрите.
---------- Добавлено 04.03.2016 в 15:44 ----------
Вчера я так же менял роботс на форуме, наоборот открыл, приток на следующий же день +300
Яша не такой быстрый как Гоша, придётся подождать месяц пока всё вернется.
Зачем делали (.ru/?p=*)?
В WP в админке есть раздел "Постоянные ссылки"
Поставьте %postname%.html в произвольной форме + плагин ЧПУ
Приведите тогда уже ссылки в порядок на сайте, если уж такую кашу заварили.
А вообще, есть народная мудрость "Работает - Не трогай!"
Яша не такой быстрый как Гоша, придётся подождать месяц пока всё вернется."
Из чего можно сделать вывод, что Яндекс скорее всего эти изменения еще и не заметил, а страницы пропали из индекса в Гугле.
Делать ЧПУ это значить делать на все УРЛ 301 редирект. Вроде robots.txt у Вас нормальный. А в индекс уже загнать не проблема. Как тут правильно советовали можно через просмотр как гугл бот, можно через твиттер. Тут целый списко по загону в индекс http://blog.badata.net/ru/340-kak-uskorit-indeksaciyu-sajta.html