Переживаю, да. Некоторые страницы показывают "Частично выполнено" НО http://prntscr.com/hwlbyh все картинки / шрифты / AJAX отображают...
В тот же день, когда закрыли роботс - ситуация стала такой http://prntscr.com/hrynj6
Теперь сидеть и терпеливо ждать, пока эти 24к страниц выпадут из поиска Гугла?
Благодарю!
И еще вопрос такой - а если обе карты очень похожи ссылками - не страшно? Не посчитается дублями какими-то?
А то сверять - сомнительное занятие - уж ОЧЕНЬ много ссылок в них.
А ограничение в 10Мб и 50000 УРЛов - есть ли смысл оставить такими части карты? или лучше разбивать на много маленьких?
----
и еще - роботы индексируют страницы сами по себе? или же ТОЛЬКО из тех, что перечислены в карте?
заметил, что у меня такая ситуация - некоторые разделы и следовательно и товары в них - не индексируются вообще (ни в поисковой системе не дает ссылок на них, ни кеша на эти страницы нет).
Никто не может дать ответ - почему...
ну к примеру - сравниваю 2 страницы сайта
1. https://webcache.googleusercontent.com/search?q=cache:8ygg_ZNU2dcJ:https://domtentov.ru/catalog/svet-dlya-ulitsy/prozhektory/focus-4000k/+&cd=1&hl=ru&ct=clnk&gl=ru
2. https://webcache.googleusercontent.com/search?q=cache:QKpimxnOhAEJ:https://domtentov.ru/catalog/svet-dlya-doma/torshery-i-napolnye-svetilniki/sl998-804-01/+&cd=1&hl=ru&ct=clnk&gl=ru
есть же разница в визуальном восприятии?
или паника вообще зря и всё в порядке?
ну ведь по сути - для сравнения дается то, как видит пользователь, и то, как видит робот. Плюс некоторые страницы отрабатывает без ошибок - то есть не "частично выполнено", а "готово" и кеш страниц нормально выглядит
А у меня у большинства страниц получается картинки, шрифты недоступны как будто в тот момент, когда робот зашел на страничку.
Было предположение, что
"больше 15 потоков на сайт и отбивает по ip. Скорее всего у вас в битрикс включен параметр ,который отбивает при быстром подключении к сайту с одного источника. Вы просто можете робота блокировать и он не обходит сайт из за этого"
Но у меня редакция Малый бизнес - и в ней не предусмотрен контроль активности модуля Веб-аналитика (чтобы убрать/выставить какие-то ограничения)
про размер не более 10Мб и кол-во URL не более 50000 - я знаю. Битрикс сам делит карту на части.
Просто по сути - у меня 2 карты - с разными URL ами, а какая из них для поисковиков - уме не приложу...
а для чего разные? мне же нужно карту роботам скормить - им же одну надо карту? или можно несколько?
для того, чтобы URL выпали из поиска?
пойду дам совет (хотя мне странно, что программист Золотого партнера Битрикса этого не знает)
Основной сайт, как бы на основном домене, так там и есть - мы его не убирали. А тестовый - там развернули параллельно копию.
И сейчас вот надо избавиться от последствий...---------- Добавлено 22.12.2017 в 14:21 ----------
Так сейчас на тестовом сайте разворачивают и тестируют совершенно другие шаблоны...
ну вот, видимо, этот момент был упущен...
а теперь что делать? как быть?