- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
burunduk, почему? зачем её прятать? без неё сайт не спарсят?
Ещё xml карта нужна при прохождении робота для быстрого захода нового контента
demon2005, зачем так облегчать задачу по поиску нового контента, который ещё в индекс попасть не успел?
Когда на карте есть карта html - очень просто разобраться со структурой. Не поиску, а человеку.
Когда на карте есть карта html - очень просто разобраться со структурой. Не поиску, а человеку.
нужно изначально нормальную структуру делать, чтобы в карту потом не втыкать.
хмл карту сайта вообще светить ни кому не стоит, назвали её как-нибудь, добавили ручками в вебмастерах и всё.
Ок. Только у мелочи денег нет,а те кто серьезно работает имеет софт, которому пофигу что парсить и сканировать.
Из интересного помнится задавал Моевой и Липатцеву вопрос: сайтмап в роботс и консоли. Какой из них бот берет или имеет на какой приоритет. Ответа не было :)
а те кто серьезно работает имеет софт, которому пофигу что парсить и сканировать.
совсем не так, найти новый контент на сайте с 10к+ страниц в режиме онлайн задача нерешаемая даже на теоретическом уровне ;)
сайтмап в роботс и консоли. Какой из них бот берет или имеет на какой приоритет. Ответа не было
а в роботсе его вообще указывать не надо ;)
совсем не так, найти новый контент на сайте с 10к+ страниц в режиме онлайн задача нерешаемая даже на теоретическом уровне
а боты гугл яша значит из будущего и полная фантастика? :)
а в роботсе его вообще указывать не надо
еще как надо. Краулер это не игрушка. Потому и делегированы полномочия для сканирующего и собирающего ссылки. Есть наверно и другие части, но про них еще меньше инфы.
а боты гугл яша значит из будущего и полная фантастика?
так без помощи (карта сайта) они новый контент найти не могут
еще как надо.
не надо - это лишняя сущность, которая только путает ботов ;)
так без помощи (карта сайта) они новый контент найти не могут
по хлебным крошкам и прямыми проходами по сайту могут. точней как я понял из общения используются все доступные способы.
не надо - это лишняя сущность, которая только путает ботов
в этом вопросе, каждый остается при своем мнении :)