- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем доброго дня.
Друзья, в чём я не прав? В чём я опять заблуждаюсь?
Внимательно изучил более десяти конкурентов в топовой нише. Меня интересовала перелинковка после основного контента. В виде блока - часто с миниатюрами.
Заглянул и в блоги, которые в сети не первую пятилетку.
Веблиберти, КтоНановенького и крупные информационные ресурсы.
Друзья, многие ресурсы выводят последние 5 постов из текущего раздела, отказавшись от плагинов.
Веблиберти и КтоНановенького (который все эти годы активно использовал YARPP) выводит 5 случайных постов из текущего раздела.
При обновлении страницы ссылки в блоке меняются.
Не могу понять смысл такой, на мой взгляд, хаотичной рандомной перелинковки, почти всегда называемой "Похожие темы".
1. Да, плагин нагружает базу данных, может замедлять загрузку страницы, но он действительно выводит связанные посты, анализируя заголовки и часть текста.
Если, допустим, у меня много статей про аффирмации, плагин их перелинкует.
Если есть темы про кошек, плагин подберёт релевантные записи.
2. Если отказаться от плагина, используя код вывода случайных тем из текущего раздела, он не сможет связать ПОХОЖИЕ темы между собой. Он выведет статьи из тематической рубрики, не более.
При обновлении страницы ссылки будут постоянно меняться (если не использовать плагин кеширования).
В чём смысл рандомной перелинковки с точки зрения продвижения сайта? Попытка решить вопрос глубокой вложенности страниц?
Но ведь переходов по таким ссылкам будет не слишком много.
Все сайты, которые используют рандомную перелинковку, закрывают постраничную навигацию от индексации.
Не могу понять смысл такой, на мой взгляд, хаотичной рандомной перелинковки, почти всегда называемой "Похожие темы".
Смысла может и не быть - ТЗ по выводу случайных постов не поставили, программист сделал как ему в голову пришло
- Не вижу смысла
Смысла может и не быть - ТЗ по выводу случайных постов не поставили, программист сделал как ему в голову пришло
- Не вижу смысла
Вот, что ответит знакомый Вебмастер.
— Цель рандомной перелинковки внутри раздела - решить вопрос с глубокой вложенностью страниц сайта, опубликованных очень давно и не получающих трафика. Такие страницы находятся далеко от главной, не имеют ни внутренних, ни внешних ссылок. Это "висяки". Робот не ходит по страницам пагинации - даже открытым для индексации, если их слишком много (привёл пример нескольких страниц пагинации этого форума. Сохранённая копия от июня месяца). Рандомная перелинковка позволяет просканировать все страницы сайта намного быстрее, поскольку ссылки меняются при очередном посещении роботом...
Необходимо связывать статьи по тематической схожести, а не рандомно...
На мой взгляд - это бред.
Необходимо связывать статьи по тематической схожести, а не рандомно...
- по тематической схожести, еще допиливаю некоторые страницы спустя время
По теме, ответа вебмастера: роботу нечего ходить по страницам сайта, если они уже проиндексированы.
И для многих вебмастеров, если робот каждый день не обходит весь сайт - это все ужас))
Таким у меня ответ: робот должен ходить только по новым или модифицированным страницам сайта. Чтобы он это соблюдал, нужно ему выдать данные. И роботы, более менее ( нарушая), эти данные соблюдают. И в связи с тем, что лимиты не тратятся зря, весь новый контент практически сразу индексируется. Нет проблем ни с Гуглом, ни с Яндексом по индексации, ни по нагрузке на сайт