- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайту 1,5 месяцев и три недели подряд в индексе гугла и яндекс только главная страница.
Главная страница в выдаче с таким текстом: "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."
движок Opencart.
Помогите в чем проблема?
robots.txt:
User-agent: *
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin/
Disallow: /download/
Disallow: /system/
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
Disallow: /*#category_id=
Disallow: /index.php?route=product/search
Disallow: /search/
Disallow: /login/
Disallow: /posttovk/
Host: yapodarok.net
Sitemap: http://yapodarok.net/sitemap
Помогите в чем проблема?
Если не прав, пусть меня поправят, но на мой не опытный взгляд у вас не правильно создан сайтмап. Он должен находится тут http://yapodarok.net/sitemap.xml . Пример оформления
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://site.com/</loc>
</url>
</urlset>
Вообще в сети много информации о том как создать сайтмап
У вас в этой строчке ошибка Disallow: /*#category_id=
Т.к. # в robots.txt - это комментарий. ПС видят это как Disallow: /
Sowenak, вообще, карта сайта может находиться где угодно. Дефолтное название для удобства, оно как бы по умолчанию. Не редкость, когда у сайта много карт - для разделов разных, например.
Вики:
Если необходимо перечислить более 50000 URL, следует создать несколько файлов Sitemap, при этом необходимо перечислить каждый из этих файлов в файле индекса Sitemap (Sitemap index). Формат файла индекса Sitemap похож на формат файла Sitemap.
Подробная информация об использовании файлов индекса Sitemap на официальном сайте: sitemaps.org.
---------- Добавлено 10.06.2016 в 12:05 ----------
У вас в этой строчке ошибка Disallow: /*#category_id=
Т.к. # в robots.txt - это комментарий. ПС видят это как Disallow: /
Именно.☝
Sowenak, вообще, карта сайта может находиться где угодно. Дефолтное название для удобства, оно как бы по умолчанию. Не редкость, когда у сайта много карт - для разделов разных, например.
Спасибо за уточнение. Но разве она не должна быть в формате xml ?
По уму конечно должна. У ТС карта для юзеров сделана а не для ПС.
По уму конечно должна. У ТС карта для юзеров сделана а не для ПС.
Но если реализована только такая карта, ПС не будут ругаться на отсутствие карты сайта?
Полезно узнать о Disallow: /*#category_id= в Роботсе. взял на заметку
а как в роботс вставить символ # ?
Экранировать аля яваскрипт \#
или как то иначе?
всем спасибо!))
а как в роботс вставить символ # ?
Экранировать аля яваскрипт \#
или как то иначе?
А зачем в роботсе использовать "#"? Страница с "#" и без - одна и та же. Нельзя закрыть страницу, не закрыв якорь и наоборот (ну, если говорить про robots.txt только).