- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Вчера обновилась БД яндекса по нашему сайту - вырезало пол сайта(точнее процентов 80).
Страницы не попавшие в индекс имеют статус "Разрешено" при проверке через анализатор robots.txt Яндекса, но в исключенных страницах они в разделе "Документ запрещен в файле robots.txt"
В гугле(через гуглВебМастер) аналогичная картина(тоже всё пообрезало) и то же обрезанные страницы проходят анализатор.
Уже ничего не понимаю, хоть криком ори :confused: файлы разрешены, но они запрещены :eek:
Но похоже всё же на явную ошибку где-то в robots.txt (не могут же оба поисковика выдать похожую индексацию)
Подскажите пожалуйста по роботс.txt
Есть код robots.txt (код полностью, приведён для яндекса, у гугла и "*" аналогично кроме названия робота)
Тут даже не то, что мелкие страницы выбросило, но даже те, которые явно должны индексироваться, к примеру
http://www.rus-cards.ru/shop/
http://www.rus-cards.ru/shop/cathouse/fer
http://www.rus-cards.ru/shop/cathouse/covrolin
Вообще в первых рядах и они же разрешены, ёлки-палки, почему они зарезались?
Мелочевка тоже вся обрезалась:
http://www.rus-cards.ru/shop/cathouse/abouthouse/compleks1live
http://www.rus-cards.ru/shop/cathouse/abouthouse/shebekino
http://www.rus-cards.ru/shop/cathouse/covrolin/katapultacolor
Причём все эти страницы имеют статус "Разрешено" при проверке через анализатор!
Для чего всё затевалось - есть поиск(по ряду причин его нельзя убрать из кода) который в индекс двух поисковиков попадает так:
http://www.rus-cards.ru/shop/23g?filter_tag=%D0%B0%D1%80%D1%82%D0%B8%D0%BA%D1%83%D0%BB%2028
Т.е. у нас начало пути
shop/cathouse/fer
shop/cathouse/covrolin и прочие
совпадают, поэтому я в роботе решил запретить всё, кроме страниц начинающихся на то, что в коде allow, но почему-то получилась какая-то фигня.
Подскажите пожалуйста, где в коде ошибка?
Заранее огромное спасибо.
---------- Добавлено 27.04.2013 в 12:59 ----------
Кстати, сейчас ещё раз(в 100500 раз) перечитываю правила написания роботс.тхт - можно ли как-либо указать в файле, что бы обойти страницы вида
http://www.rus-cards.ru/shop/23g?filter_tag=%D0%B0%D1%80%D1%82%D0%B8%D0%BA%D1%83%D0%BB%2028
как-то иначе, чем в топике?
Т.е. нужно обойти страницы, в адресе которых содержится выражение filter_tag=
-Добавлено в 13:16-
Похоже разобрался.
В общем я [САМОЦЕНЗУРА], если не ошибся, то написание должно выглядеть так:
тем самым мы отсечём "левый" поиск, от которого куча "левых" страниц в индексе
Но вопрос - почему в анализаторе страница попадает в индекс, а после индексации и обновления баз попадает в запрещённые в роботс.тхт остается открыт, как же тогда проверить правильность написания, если по факту получим совсем другое?