- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Если папка открыта для индексации, зачем её повторно открывать?
Что бы усилить. Потому что как то слабо именно эта папка индексируется.
почему у меня два файла robots.txt?
почему у меня два файла robots.txt?
Потому что завтра пятница.
Добрый вечер, форумчане.
Подскажите пожалуйста, как в роботс закрыть дубли категорий.
Например, категория футболок:
Ссылки имеют такую форму:
/products/category/1881601
/products/category/1881601/page/2?
/products/category/1881601/page/3?
/products/category/1881601/page/4?
Как я понимаю, для поисковиков это надо закрывать?
Заранее большое спасибо!
дравствуйте у меня такой вопрос
Домен был на юкозе прошло больше месца и с поисковиков начали приходить посетители я решил перенести домен на платный хостинг в итоге получилось
Страницы запрещены к индексированию вебмастером или не существуют
Документ запрещен в файле robots.txt
Когда открываю мой сайт /robots.txt иконка юкоз
Подскажите пожалуйста в чем проблема
robots.txt
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /eros
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /cams.html
Host: мой сайт
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /trackback/
Disallow: /comments/
Disallow: /feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /cams.html
Sitemap: мой сайт/sitemap.xml
Что бы усилить. Потому что как то слабо именно эта папка индексируется.
Роботс.тхт не используется для данных целей, используйте аддурилки вебмастеров, или нагонщики роботов, быстророботов.
---------- Добавлено 13.10.2015 в 21:29 ----------
Добрый вечер, форумчане.
Подскажите пожалуйста, как в роботс закрыть дубли категорий.
Например, категория футболок:
Ссылки имеют такую форму:
/products/category/1881601
/products/category/1881601/page/2?
/products/category/1881601/page/3?
/products/category/1881601/page/4?
Как я понимаю, для поисковиков это надо закрывать?
Заранее большое спасибо!
какую страницу хотите оставить как основную?
---------- Добавлено 13.10.2015 в 21:32 ----------
дравствуйте у меня такой вопрос
Домен был на юкозе прошло больше месца и с поисковиков начали приходить посетители я решил перенести домен на платный хостинг в итоге получилось
Страницы запрещены к индексированию вебмастером или не существуют
Документ запрещен в файле robots.txt
Когда открываю мой сайт /robots.txt иконка юкоз
Подскажите пожалуйста в чем проблема
robots.txt
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /eros
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /cams.html
Host: мой сайт
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /trackback/
Disallow: /comments/
Disallow: /feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /cams.html
Sitemap: мой сайт/sitemap.xml
Данный файл не закрывает полностью содержимое сайта. Либо скиньте урлы для проверки.
Вероятнее всего проблема в Метатеге robots.
какую страницу хотите оставить как основную?
Спасибо за отклик.
Соответственно первую хочу оставить:
/products/category/1881601
Остальные надо закрыть, т.к. это категория ИМ и описание раздела повторяется на последующих страницах:
/products/category/1881601/page/2?
/products/category/1881601/page/3?
/products/category/1881601/page/4?
Просто я не могу понять, как правильно закрыть 2,3,4 страницы.
Disallow: /page/2?
Disallow: /page/3?
Disallow: /page/4?
Так наверное? Подскажите пожалуйста.
/products/category/1881601
Остальные надо закрыть, т.к. это категория ИМ и описание раздела повторяется на последующих страницах:
/products/category/1881601/page/2?
/products/category/1881601/page/3?
/products/category/1881601/page/4?
Disallow: /products/category/1881601/page*
Disallow: /products/category/1881601$
Важно: если у Вас на сайте есть проблема со слеш и без него, то правило меняется.
Если, к примеру, хотите оставить страницу /products/category/1881601/ в индексе, то роботс будет такой
Disallow: /products/category/1881601/page*
Disallow: /products/category/1881601/$
P.S. А если это простое правило пагинации, то почитайте вот это дополнительно - https://yandex.ru/support/webmaster/controlling-robot/html.xml#canonical
Подскажите, как закрыть все страницы сайта от индексирования?
Здравствуйте. Подскажите, пож-та, корректный ли текст robots.txt. Цель — закрыть сайт от индексации любыми поисковиками, удалить из archive.org (в т.ч. сохраненную историю). Последний метода работает, проверял. Спасибо.
# Generated by http://pr-cy.ru/
User-agent: *
Disallow: /
User-agent: ia_archiver
Disallow: /