bandesign, у Вас на сам тип ругается не говоря уже о таблицах.
Если бы у меня был такой сайт, я бы нанял верстальщика и сделал валидацию.
Везет. Привыкли дал в газету объявление и чем больше тем лучше :)
Выше Миш-ка довольно таки грамотно все рассказал. даже добавить нечего.
все ссылки сайта исправлены на нужную? В сайтмапе должна быть только конечная.
по хлебным крошкам и прямыми проходами по сайту могут. точней как я понял из общения используются все доступные способы.
в этом вопросе, каждый остается при своем мнении :)
- Доктор у меня болит
- где?
- я не могу показать
- Значит Вам в морг на всякий случай :)
а боты гугл яша значит из будущего и полная фантастика? :)
еще как надо. Краулер это не игрушка. Потому и делегированы полномочия для сканирующего и собирающего ссылки. Есть наверно и другие части, но про них еще меньше инфы.
косвенно. Сканировать и парсить может с ошибками, даеж если код правильный.
Ок. Только у мелочи денег нет,а те кто серьезно работает имеет софт, которому пофигу что парсить и сканировать.
Из интересного помнится задавал Моевой и Липатцеву вопрос: сайтмап в роботс и консоли. Какой из них бот берет или имеет на какой приоритет. Ответа не было :)
Какую "маркировку"?
В снипете Хз смотреть надо. а ниже это быстроссылки. они автоматически формируются.
любой ресурс может содержать или поймать ошибки и лишний сигнал о той же структуре в карте, не лишний.---------- Добавлено 28.10.2016 в 04:50 ----------
А "наши" и "чужие" боты это какие? можно по фамилиям? :)