- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт-каталог на джумле+виртумарт. Я активно занимаюсь продвижением нескольких внутренних страниц по ключевикам-брендам продукции. Все было отлично, топ-10, все дела, но тут несколько сотен страниц, включая продвигаемые выпадают из индекса вообще.
Написал платону - тот сказал, что на сайте присутвуют страницы, дублирующие продвигаемые; привел пару примеров (могу в личку кинуть) и сказал - грубо говоря - как закроешь в роботсе или еще как - пиши.
Проблема в том, что дублированные страницы даже не представляю, как найти - в индексе у Яши (раньше было 1200 страниц, потом, судя по всему АГС повлиял - 400, сейчас около 300) нашел только одну (хотя по моим расчетам страниц-дублей должно быть не менее 8-10).
В карте сайта - порядка 1200 ссылок. Неужели мне придется искать в ней руками дубли и руками же запрещать их к индексации в роботсе?
Заранее благодарен за содействие:)
Есть сайт-каталог на джумле+виртумарт
Может, просто, подправить виртумарт?
руками же запрещать их к индексации в роботсе?
Там по шаблону можно ,почитайте рекомендации и описание роботса от яндекса, там все написано.
дубли нужно искать не в индексе яши, а у вас на сайте, что чаще всего может быть дублями? Это тэги, категории, страницы, архивы и т.д.. Для Яши в идеале - Главная страница и статические страницы со статьями. Все остальное можно закрывать в роботсе.
дубли нужно искать не в индексе яши, а у вас на сайте
Ржака. Яндексу плевать на твои дубли до той поры, пока он их не проиндексировал, этот какбэ ясно как белый день. Так что смотреть нужно именно на проиндексированные страницы. Более того, если ты не совсем понимаешь что генерирует цмска и не в состоянии сразу создать правильные дерективы в роботсе, просмотр индекса поможет тебе найти узкие места и заранее предотвратить индексацию тысяч страниц для печати, например. Ну и т.д.
Ржака. Яндексу плевать на твои дубли до той поры, пока он их не проиндексировал, этот какбэ ясно как белый день. Так что смотреть нужно именно на проиндексированные страницы. Более того, если ты не совсем понимаешь что генерирует цмска и не в состоянии сразу создать правильные дерективы в роботсе, просмотр индекса поможет тебе найти узкие места и заранее предотвратить индексацию тысяч страниц для печати, например. Ну и т.д.
зачем ручками искать дубли в индексе яши, если можно логически подумать, что создаёт дубли и запретить их к индексации.
зачем ручками искать дубли в индексе яши
Я там выше вроде написал зачем и почему.
Tarry, это был риторический вопрос.
......
Disallow: /*.php$
Disallow: /content/$
Disallow: /index2.php$
Disallow: /index.php$
Disallow: /*itemid*
Disallow: /*view*
Disallow: /*task*
Disallow: /*id*
Disallow: /*option=*
Disallow: /*component*
Disallow: /*letter*
Disallow: /*threaded*
Disallow: /*replyto*
Disallow: /*catid*
Disallow: /*func=*
Disallow: /*bot.html$
Disallow: /*AdsManagerTab*
.....
Кое что закрывает, но Вам нужно на форум Joomla, там данный вопрос давно раскрыт
......
Disallow: /*.php$
Disallow: /content/$
Disallow: /index2.php$
Disallow: /index.php$
Disallow: /*itemid*
Disallow: /*view*
Disallow: /*task*
Disallow: /*id*
Disallow: /*option=*
Disallow: /*component*
Disallow: /*letter*
Disallow: /*threaded*
Disallow: /*replyto*
Disallow: /*catid*
Disallow: /*func=*
Disallow: /*bot.html$
Disallow: /*AdsManagerTab*
.....
Кое что закрывает, но Вам нужно на форум Joomla, там данный вопрос давно раскрыт
Родилась идея закрыть все страницы от индексации, кроме продвигаемых. Подглядел тут.
Получилось такое:
User-agent: *
Allow: /index.php?option=com_content&task=view&id=1&Itemid=1
Allow: /index.php?option=com_content&task=view&id=5&Itemid=4
Allow: /index.php?option=com_content&task=view&id=3&Itemid=2
Allow: /index.php?option=com_content&task=view&id=4&Itemid=3
Allow: /index.php?option=com_content&task=view&id=9&Itemid=20
Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=1&Itemid=19
Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=9&Itemid=19
Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=11&Itemid=19
Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=12&Itemid=19
Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=7&Itemid=19
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /catalogue
Disallow: /*option=
Disallow: /*page=
Host: www.site.ru
Правильно ли я понял, что в индексе останутся только 10 страниц сайта и проблема с дублем будет исчерпана? И правильно ли составлен этот robots.txt?
denisov_gp, этот вопрос на форум жумлы, но вы можете проверить этот роботс в ЯндексВебм.