- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья! :) У меня на сайте есть раздел, до которого просто не доходят руки — robots.txt под CMS.
Суть этого раздела — предоставить минимальные готовые решения под разные системы управления.
В этом топике я бы хотел, чтобы с вашей помощью этот раздел обрел жизнь :)
Бонус каждому — ссылка на ваш сайт или блог с соответствующей страницы тому, кто принял активное участие :idea:
Ну для всех популярных CMS Роботсы найти не проблема, полно в нете (ДЛЕ, Вордпресс, Джумпла).
А вообще все равно приходится под себя делать, разные разделы и т.д.
Некоторые вообще ни чего не закрывают и все нормуль))
Вот есть у меня магазинчик, двиг: Шоп Скрипт Премиум
Ты можешь создать 100 разделов и в каждом разделе будет один и то же товар, но это не будет дублем, он так и будет идти: моймагазин.ру/телефон-верту.html
То есть 1 телефон можно за пару минут разместить во всех 100 разделах, а ссылка везде будет одна и та же.
То есть в этом двиге в Роботсе закрывать ничего не надо, по умолчанию. Только когда 2 телефона разного цвета, тогда да...1 телефон закрываешь..дублирование контента идет. И то, не обязательно.
Ну для всех популярных CMS Роботсы найти не проблема, полно в нете (ДЛЕ, Вордпресс, Джумпла)
Дык я гуглил ) Много типа нюансов :)
Минимальное решение под WP:
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /tag
Disallow: /category
Disallow: /archive
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Host: ваш сайт.ru
Sitemap: http://ваш сайт.ru/sitemap.xml
Минимальное решение под Joomla:
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Host: ваш сайт.ru
Sitemap: http://ваш сайт.ru/sitemap.xml
Минимальное решение под AMIRO.CMS:
Disallow: /admin
Disallow: /_admin/
Disallow: /members
Disallow: /search
Disallow: /subscribe
Disallow: /users
Disallow: /*offset=0
Disallow: /*forum_ext=
Disallow: /*_print_version=
Disallow: /*action=export_rss
Disallow: /*action=search
Disallow: /*action=view_posts
Disallow: /*display_form=
Host: ваш сайт.ru
Sitemap: http://ваш сайт.ru/sitemap.xml
Минимальное решение под HostCMS:
Disallow: /404/
Disallow: /403/
Disallow: captcha.php
Disallow: download_file.php
Host: ваш сайт.ru
Sitemap: http://ваш сайт.ru/sitemap.xml
Под Dle советую следующее решение:
Минимальное решение под Modx:
Disallow: /assets/cache/
Disallow: /assets/docs/
Disallow: /assets/export/
Disallow: /assets/import/
Disallow: /assets/modules/
Disallow: /assets/plugins/
Disallow: /assets/snippets/
Disallow: /install/
Disallow: /manager/
Host: имя сайта
Sitemap: http://имя сайта/sitemap.xml
Если сайт ГС:
Disallow: /
Host: сайт.ру
Для ДЛЕ
Для Даннео:
http://smixer.ru/robots.txt
Долго редактировался, но может быть частично не актуален при другой структуре сайта. По умолчанию для последней версии акутуален.
Эти строки индивидуальные, их можно исключить:
Disallow: /info/about.html
Disallow: /info/text.html
Насчет Друпала я писал статьи о недостатках официального robots.txt, он не все закрывает:
Убираем дубликаты страниц Drupal из поисковиков
Robots.txt на mozg.by - работа над ошибками для Гены
Лично у меня на Друпале такой: http://www.afportal.ru/robots.txt
Ребята, спасибо огромное за комментарии. Все посмотрю и т.д. Валюсь с ног, голова не варит, выходные были бурные, гляну все на свежую голову )))
А вообще все равно приходится под себя делать, разные разделы и т.д.
Именно. + под такие движки как joomla стандартные роботсы ниразу не оптимальны. Универсальное решение для таких движков в принципе можно составить, но оно будет с учетом лишь "стандартных" компонентов, я думаю.
Стандартное решение для 1С-Битрикс:
Disallow: /*?
Disallow: /bitrix/
Disallow: /upload/
Host: site.ru
Sitemap: http://site.ru/sitemap.xml
:)
Может кто подскажет, как правильно сделать. Вообщем в магазине на Prestashop у меня идет дублирование страниц самого товара и он же, только в корзине. Ссылка в корзине имеет вид /order?ipa=118, order?ipa=119 и т.д.
как правильно прописать в роботсе закрытие вот таких вот страниц для индексации?
Disallow: /order?* или как то по другому?