- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. Приключился такой случай. В вебмастере гугла увидел, что robots заблокировал 8к. страниц. В чём может быть причина? читал на форумах, пишут что из-за этого robots, который неправильно составлен. У меня, как мне кажется, всё в норме. Но почему тогда заблокированы страницы?
Второй вопрос. При тесте показателей сайта на cy-pr.com у меня он показал, что у гугла 65% всех страниц под фильтром. Почему? Контент на сайте уникальный, все описания писались в ручную, что и скопировано с других сайтов, то это только плеера с фильмами. Кстати, я сайт добавлял в поисковики во время карантина, что очень плохо, знаю. Может это быть причиной для фильтра? Что если удалить сайт с поисковиков и заново добавить? изменится что нибудь?
сам robots
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Disallow: /shop/order/
Disallow: /?ssid=
Sitemap: http://сайт.ru/sitemap.xml
Sitemap: http://сайт.ru/sitemap-forum.xml
Sitemap: http://сайт.ru/sitemap-shop.xml
Помогите) up
Помогите) up
Стандартный Юкозовский роботс, все нормально.
единственное Disallow: /search(/) - нет слеша и Disallow: /mchat -тоже.
Вот ответы на ваш вопрос http://forum.ucoz.ru/forum/21-38581-1
единственное Disallow: /search(/) - нет слеша и Disallow: /mchat -тоже.
На других сайтах, у которых 0% под фильтром, так же, как у меня. Думаю, что проблема не в этом. Да и на самом форуме юкоза, где демонстрируется стандартный роботс, там тоже нет слеша.
Вот ответы на ваш вопрос http://forum.ucoz.ru/forum/21-38581-1
Лично точного ответа не нашёл. Будьте добры, процитируйте, если не трудно.
На других сайтах, у которых 0% под фильтром, так же, как у меня. Думаю, что проблема не в этом. Да и на самом форуме юкоза, где демонстрируется стандартный роботс, там тоже нет слеша.
Лично точного ответа не нашёл. Будьте добры, процитируйте, если не трудно.
Чтобы получить точный ответ - нужен точный вопрос!
На пример: Почему страница сайта такого-то.ру/статьи/как_задавать_вопрос/2013-02-05-492 запрещена к индексации?
Вот, например, у меня 2 материала на сайте по адресам:
http://kinothink.ru/news/vosmidesjatye/2013-02-15-2873
http://kinothink.ru/news/vosmidesjatye/2013-02-15-2872
=-=-=
Может-ли их гугл отнести как одинаковые и сунуть под фильтр?