Вы спрашиваете одно и тоже. Я все скрины приложил в начале поста.
Вот пример УРЛ который якобы запрещен к индексации - https://gyazo.com/c44796c367344457df642500c352392d
10000 страниц запрещены к индексации в robots, но никакого запрета на эти страницы нет.
Это почти половина всех страниц сайта.
А я скрины прикрепил. Из 75000 страниц, только 10000 индексируются. 50000 - закрыты тегом noindex (это норм) и еще 10000 якобы запрещены в robots.
поясните? не понял
Подскажите, зачем?---------- Добавлено 20.12.2019 в 11:08 ----------
Не пойму, а что у нас не правильно сделано? Вроде мета тег версии языка стоит---------- Добавлено 20.12.2019 в 11:09 ----------
А раздел EN же закрыт в robots.
По сайтмап, подскажите? Сейчас есть две карты сайта, внутри каждой есть еще ссылки на другие.
Одна - статичная. Вторая - генерируется каждый день.
Здравствуйте снова, возможно я спешу, но не понимаю почему такая разница в индексе двух поисковиков
https://gyazo.com/4e47fac4d562864c7994e2f12d401e59
Изменили robots.txt , теперь выглядит так:
User-Agent: *
Disallow: */index.php
Disallow: /ajax/
Disallow: /bitrix/
Disallow: /*show_include_exec_time=
Disallow: /*show_page_exec_time=
Disallow: /*show_sql_stat=
Disallow: /*bitrix_include_areas=
Disallow: /*clear_cache=
Disallow: /*clear_cache_session=
Disallow: /*ADD_TO_COMPARE_LIST
Disallow: /*ORDER_BY
Disallow: /*?print=
Disallow: /*&print=
Disallow: /*print_course=
Disallow: /*?action=
Disallow: /*&action=
Disallow: /*register=
Disallow: /*forgot_password=
Disallow: /*change_password=
Disallow: /*login=
Disallow: /*logout=
Disallow: /*auth=
Disallow: /*backurl=
Disallow: /*back_url=
Disallow: /*BACKURL=
Disallow: /*BACK_URL=
Disallow: /*back_url_admin=
Disallow: /*?utm_source=
Disallow: /*?bxajaxid=
Disallow: /*&bxajaxid=
Disallow: /*?view_result=
Disallow: /*&view_result=
Disallow: *?q=
Allow: /bitrix/components/
Allow: /bitrix/cache/
Allow: /bitrix/js/
Allow: /bitrix/templates/
Allow: /bitrix/panel/
Sitemap: https://lestate.ru/sitemap.xml
Sitemap: https://lestate.ru/sitemap_catalog.xml
User-Agent: Yandex
User-Agent: Googlebot
но сдвигов нет по гуглу и в яндексе страниц раз в пять больше, хотя пауком просканили и вот что получили.
https://prnt.sc/qd1cyw
Проверил страницы, которые выпали из выдачи гугла и в итоге, они открыты для индексации.
https://prnt.sc/qd1e30
МОЖЕТ Я СПЕШУ И ГУГЛУ ПРОСТО НУЖНО ВРЕМЯ ДЛЯ ПЕРЕИНДЕКСАЦИИ? )
Спасибо огромное за помощь.
Спасибо, за помощь, но я не совсем понимаю что общего между микроразметкой и каноникалом? К тому же каноникал не прописан на странице, например: https://lestate.ru/catalog/adidas/ которая тоже выпала из выдачи.
Привет всем! И все же не понятно как это реализовать, через турбо страницы или через быстрые ссылки или может микроразметку, кто сталкивался с этим и удачно внедрил, подскажите плиз. ОЧЕНЬ НУЖНО.