- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот это нежданчик..
Ну я же объективен - есть косяк у Битрикса значит есть :)
Одна из проблем в том что он в карту добавляет все технические страницы того инфоблока (раздела, модуля) которые разумеется заблокированы в robots. Ну и СёчКонсоль сразу ругается - "В карте сайта есть страницы заблокированные в robots.txt"
Однако Битрикс имеет довольно свободную структуру размещения информации
"Структура размещения" вообще никак не зависит от генерации карты. В см это как раз задачи генератора и возможности движка - уметь собирать урлы. Поэтому и странно что такой типа "крутой" движок не может даже такого элементарного.
Одна из проблем в том что он в карту добавляет все технические страницы того инфоблока (раздела, модуля) которые разумеется заблокированы в robots.
"Структура размещения" вообще никак не зависит от генерации карты.
Совершенно верно. Генерация карты зависит от структуры.
Совершенно верно.
это как раз задачи генератора и возможности движка - уметь собирать урлы. Поэтому и странно что такой типа "крутой" движок не может даже такого элементарного.
Если он не умеет генерить карту, то искать например битые ссылки от него нельзя потребовать.
Подскажите, пожалуйста, важно ли роботам расположение ссылок в карте сайта? Обязательно ли располагать их следующим образом: домен/категория1/ - и список всех урлов из этой категории, а затем домен/категория2 - список ссылок и т.д.?
Поисковым роботам неважно, они всё равно списком обрабатывают данные, а вот вам (или вашему SEO специалисту) для задач визуального анализа и последующей аналитической работы может быть полезно.
Нужно ли выносить список урлов каждой категории в отдельный файл? Сайт большой, интернет-магазин мебели.
Решать вам. Если у вас сотни разделов и сотни товаров в каждом разделе - можно каждый раздел вынести в отдельный xml файл и объединить их в общем контейнере. Но всё это актуально только в случае внутренних задач анализа и контроля индексации.
жесть какая..
Именно поэтому в "Маркетплейсе" Битриксовском есть пару десятков решений по генерации sitemap - как бесплатные, так и платные.
Ну наверное некоторые из них и хорошо работают - не знаю, не пробовал.
дочитывай:
Я всё прочитал, но прокомментировал только то, что посчитал необходимым. Дальше - совсем про другое.
Если он не умеет генерить карту, то искать например битые ссылки от него нельзя потребовать.
Он умеет генерить карту. Искать битые ссылки движок не обязан. Он обязан показывать правильную информацию.
Именно поэтому в "Маркетплейсе" Битриксовском есть пару десятков решений по генерации sitemap
Дальше - совсем про другое.
Дальше не другое, а продолжение-пояснение.
Он умеет генерить карту.
Угу, я помню:
В самом Битрикс было аж два способа создать карту, но оба не работали ни разу нормально как их не настраивай на простейших по структуре сайтах.
:)
Искать битые ссылки движок не обязан.
Я не говорил что обязан.
Повторю, если не понятно с первого раза: если нет инфы (даже урлов) о реальных веб-страницах, то требовать их анализа (включая ответ сервера) просто невозможно.
Он обязан показывать правильную информацию.
Повторю, если не понятно с первого раза: если нет инфы (даже урлов) о реальных веб-страницах, то требовать их оценки (включая ответ сервера) просто невозможно.
Это тебе так кажется, от недостатка информации.
Про правильную уже выяснили. Обязан давать, но не даёт.
Всё там нормально с этим. А если кому не нравится, то да, можно найти другое решение. Битрикс из коробки даёт только базовую функциональность.