- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В любом случае мне кажется, что страницы c rel=canonical должны фильтроваться еще до попадания в индекс.
Но чтобы заметить этот rel=canonical, страницу надо скачать.
Проблема усугубляется, если CMS создаёт кучу ссылок на левые страницы
/ru/forum/comment/11649708
/ru/forum/comment/11649708
То есть дать админу сайта (сеошнику, разработчику?) возможность управления индексацией отдельных блоков? Мысль интересная, но что-то мне подсказывает: те, кто знают, зачем это нужно, сообразят и как это сделать.
И проще это будет без ковыряния в чужом софте.
Да вон бурундуковских хватит.
Но у нормальных пользователей CMS нет понимания примитивного мира, в котором действуют ПС. И если сайт избавляет ПС и сеть от лишней работы и трафика... это не улучшит её продаваемость.
Скорее возможность поставить галки (с минимум пояснений). И с напоминаем, что ползатель должен сам понимать что делает. А умолчания — не знаю какие должны быть.
В любом случае мне кажется, что страницы c rel=canonical должны фильтроваться еще до попадания в индекс
Дык они и так фильтруюццо до попадания... ))
Хороший тег и адекватно понимаемый ПС-ми
Но чтобы заметить этот rel=canonical, страницу надо скачать
Неужто у юзеров и ПС есть другие варианты для поглядеть сайт? ... ))
Людей, использующих этот "мусор", гораздо больше, чем злых конкурентов, загоняющих в индекс несуществующие страницы. Если оно не будет работать, это гораздо больший минус продукту. Но я как бы не спорю, что в индекс такие страницы попадать не должны.
так проблема в том, что этот мусор попадает в индекс и получаются дубли - убить которые из-за инертности пс очень сложно, особенно если там появляются ещё и внешние ссылки
вот пример из вебмастера гугла и это не происки конкурентов:
1 :1hldfa02
2 :cmkmukgo
3 %3E%D1
4 ]%D0%
5 %3E
6 %3E%D0
7 -&
8 %3E%D0
9 %3E
10 %3E%C3
13 %3E%E8
14 >
15 c.html%22%22
16 %3E%D0
17 %C2%A0
19 &
Неужто у юзеров и ПС есть другие варианты для поглядеть сайт? ... ))
У поисковиков есть вариант отправить запрос методом HEAD, чтобы получить только заголовки документа. Делают они это сейчас, или нет - я, если честно, не знаю.
Да вон бурундуковских хватит.
Я уже видел этот пример довольно давно, и не вполне понял его ценность ни тогда, ни сейчас :) Мне кажется, это хитрое колдовство, которое может быть уместно в конкретной ситуации Леши, но делать из этого универсальное решение едва ли стоит.
Во-первых, не известно, как оно будет работать на дохлых девайсах. Во-вторых, не понимаю, зачем делать бото-читаемую навигацию только через карту сайта - внутренние страницы оказываются на в двух кликах от морды, какой от этого профит? Борьба со сквозняками? А все ли верят, что это еще актуально? :)
P.S. Написал обобщающую статью в бложек по мотивам топика + написал письмо Платону по поводу HEAD-запросов и допустимости клоакинга в случае, если контент достается только через GET.
Советую ModX. Бесплатная CMS с широкими возможностями. На ней можно сделать что угодно, однако есть и свои сложности. Впрочем, они легко решаются, т.к. в сети есть много ресурсов, где можно найти решения.
В отношении СЕО, на мой взгляд, трудно найти аналог этой замечательной CMS. Если знаете основы PHP, то не составит труда реализовать все, что захотите.
Итого:
+++++ Есть замечательная возможность на ModX Revo админить сразу несколько сайтов, при том у каждого будет своя админка (пилотный проект - платно. Сам не пробовал)
+ ЧПУ
+ Возможность сделать как блог с малым количеством страниц, так и магазин с более, чем 10000 стр. (На modX evo раньше с количеством страниц были проблемы, после выхода modX revo, говорят, ситуация изменилась в лучшую сторону и большие сайты больше не тормозят)
+ При правильной кривизне рук можно натянуть любой шаблон без особых усилий.
+ Редактировать контент очень удобно, все интуитивно понятно
+ Множество плагинов, которые позволят реализовать любые задумки
+ FTP доступ через админку (очень полезно на мой взгляд)
+ Через админку можно редактировать .htaccess, robots.txt, .css, .js, .html, .php (можно установить подсветку кода спец плагином)
+ Можно добавлять свои поля (например те, которые бы выводили keyword, description и т.д.)
- Иногда приходится чистить контент от лишнего HTML кода, если текст набирался во встроенном редакторе.
- На мой взгляд, меню составлено несколько неправильно. Интуитивно мало, что понятно.
- ModX Revolution сделан на AJAX из-за чего создается впечатление, что админка тормозит. Не очень приятно.
- Нужно какое никакое знание PHP, CSS, HTML (В том случае, если не хотите дорогих программистов и админов)
- Иногда требуется хороший английский, чтобы ознакомиться с тем или иным сниппитом или плагином.
Мои затраты на освоение этого всего:
С английским у меня было все в порядке к тому времени. Необходимый уровень PHP для CMS занял меньше трех недель. Освоить логику ModX и научиться создавать сайт с нуля самостоятельно - около месяц.
Достаточно одной недели, чтобы понять как натянуть шаблон и выстроить структуру (мануалов в сети много). Потом можно закидывать контент и радоваться жизни.
Как-то так, может что и упустил.
Во-первых, не известно, как оно будет работать на дохлых девайсах.
это кто ещё на спектруме сидит?
зачем делать бото-читаемую навигацию только через карту сайта - внутренние страницы оказываются на в двух кликах от морды
там и нормальная навигация доступна для бота, но только та, которая мне нужна
можешь посмотреть заодно и www.unmedia.ru - там наворотов поболее будет :)
У поисковиков есть вариант отправить запрос методом HEAD, чтобы получить только заголовки документа. Делают они это сейчас, или нет - я, если честно, не знаю.
Не знаешь, ага.
Интересно, а что мешает ПС учитывать только внутренние ссылки или ссылки из карт!? Внешние можно было бы просто сравнить с внутренними и, если их нет в списке, то и не делать запросы по ним. Такой подход мог бы решить проблему с дублями и дисциплинировать веб-разработчиков.
это кто ещё на спектруме сидит?
До недавнего времени у меня была такая штука - Philips Xenium x325, и там даже был браузер, и я им даже пользовался :)
там и нормальная навигация доступна для бота, но только та, которая мне нужна
"Нормальная навигация" - это в смысле ссылки из текста? Ок, но только это совсем не то, что можно использовать массово. Здесь же речь о CMS идет.
Не знаешь, ага.
Поковырял чуть-чуть логи. На 30К хитов нашлась только одна такая запись:
Судя по всему, массово боты этим действительно не пользуются.
Советую ModX ...
+1
и к разгоревшейся дискуссии о "чистоте урлов" могу добавить 2 разА по 5 центов от MODx :