- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как думаете, присутствие сайтмапа в формате XML может являться положительным фактором для поисковых систем? Проблем с индексацией никогда не было, и я не уделил внимания созданию сайтмап файла по всем стандартам.
Не является, если с индексацией ок. Но тут лучше пере, чем недо. Тем более делать ее пять минут.
Не является, если с индексацией ок. Но тут лучше пере, чем недо. Тем более делать ее пять минут.
Ну сначала надо еще изучить. Поэтому наверное день потерять, потом за пять минут сделать. Ну тут все ясно тогда, появится свободное время - займусь
Что изучить, не понял? Не ну можно быстро любым сервисом. Если остальное настроено типа роботса. А потом уже пилить скрипт (опять же, если нужен, стандартные цмс сами умеют с плагинами).
Поэтому наверное день потерять, потом за пять минут сделать.
Почему? Есть же специальные сервисы, например: https://www.xml-sitemaps.com/ (до 500 стр. бесплатно)...
Что изучить, не понял? Не ну можно быстро любым сервисом. Если остальное настроено типа роботса. А потом уже пилить скрипт (опять же, если нужен, стандартные цмс сами умеют с плагинами).
Формат файла изучить. Ну вот например начал сейчас читать
Получается, что если у меня 20 000 страниц, которые в принципе не меняются (кроме некоторых динамических декоративно-навигационных элементов типа "Последние добавленные товары") я могу заставить робота их даже непереиндексировать каждый раз? Или это плохая идея?
Нет, для этого нужна связка lm-ims-304
Нет, для этого нужна связка lm-ims-304
Так тоже могу сделать. Стоит? Т.е. реально страница меняется каждый раз, но описание товара, цена и т.д. не менялись.
С другой стороны, если я что-то изменю на сайте, то надо менять last modifed. Т.е. где-то в движке предусмотреть этот функционал, и не забывать обновлять last modified
"могу заставить робота их даже непереиндексировать каждый раз? Или это плохая идея?"
Не можете - я написал скрипт, который формирует карту сайта (это, правда, далеко не пять минут заняло), где товарам, которые не продаются, поставил наименьший приоритет (и не обновляю дату изменения страницы, даже если что-то там поменялось).
Но в ВМ видно, что робот продолжает заходить на такие страницы. Возможно, он стал заходить на такие страницы меньше, но какой-то статистики не проводил.
Но в ВМ видно, что робот продолжает заходить на такие страницы. Возможно, он стал заходить на такие страницы меньше, но какой-то статистики не проводил.
Ок. Т.е. можно не заморачиваться, а лишь расставить приоритеты.
Hatano, ну понятно, что это сложнее, и нужно писать