Тарасов Роман, выше по ссылке аналог рекапчи, только без лишних подключений с минимум кода и да вы правы, recaptcha без капчи, перепутал названия.
CostaRica, reCAPTCHA по мне так зло.
Ставьте простой скрипт, чтобы боты без JS не смогли ничего отправить и тогда не придется пользователей заставлять разгадывать каптчу.
http://reset.name/wordpress-ru/contact-form-7-antispam-bez-kapchi/
Тоже были проблемы с получением спама, данный скрипт по ссылке помог.
Гляньте ещё http://sachinchoolur.github.io/lightGallery/
xVOVAx, так да, тоже так считаю
Для поискового бота не достаточно указать lang="ru", если на домене, физически, есть раздел с другой языковой версией сайта, на которую есть прямые ссылки и который можно открыть в браузере, например https://lestate.ru/en/catalog/odezhda/. Вам нужно использовать дополнительный мета теги с атрибутами rel=alternate и hreflang - https://support.google.com/webmasters/answer/6144055
В таком случае думаю Google сможет переиндексировать как вам нужно и url в robots.txt больше не попадут в список ошибок, как на ваших скринах---------- Добавлено 27.12.2019 в 12:23 ----------
У вас они не полные, не заметил ссылок на внутренние разделы сайта с продукцией и смотрите на наличие ошибок в консоли вебмастера
В битрикс вроде должны быть плагины с генерацией карты, когда появляются новые страницы на сайте---------- Добавлено 27.12.2019 в 12:24 ----------
Так по фен шую)) указывает категорию
Отключили! У конкурентов тоже
Юридическая тематика. Региональная выдача. Почти все конторы улетели, зато в плюс вышли справочники, каталоги и сайты, которые не относятся к заданному региону. Прикольно чё.
Diversant, да, вижу. В любом случае там бота надо направлять на нужную языковую версию, иначе так и будет сканить en.
Если не нужен англоязычный раздел, то полностью закрывать директивой в robots.txt, убрав слэш в конце Disallow: /en - закрывает весь раздел + мета-теги чтобы в индекс не попадали.
И ещё стоит sitemap.xml сделать нормальным, сейчас там он разбит и не все страницы указаны https://lestate.ru/sitemap.xml
kofanevgeniy, вам нужно прочитать информацию по языковым настройками сайта: https://support.google.com/webmasters/answer/6144055?hl=ru# и правильно настроить мета-теги, которые будут указывать ботам какие языковые версии нужно сканировать + rel="canonical"
Потом отправляйте на повторное сканирование.
Да, конечно, со старого https://старый-сайт.ru на новый https://новый-сайт.ru стоит 301 редирект
При проверке заголовка - HTTP/1.1 301 Moved Permanently ---------- Добавлено 16.12.2019 в 18:18 ----------
Мне бы склеить, точнее чтобы бы Google всё это сделал корректно, а трафик судя по комментам и темам на форуме долго придется ждать, но если не склеить, то судя по всему о трафике можно будет забыть ---------- Добавлено 16.12.2019 в 18:27 ---------- Что-то вроде поменялось, но не в лучшую сторону:
url:старый-сайт.ru - две главные страницы с https (новый и старый) - дубли с разным протоколом
url:новый-сайт.ru - нет в индексе
site:старый-сайт.ru - страницы старого сайта с http/https - дубли с разным протоколом
site:новый-сайт.ru - всё корректно! Ровное кол-во страниц, совпадающих с sitemap.xml - 24 страницы на домене - 24 страницы в индексе.---------- Добавлено 16.12.2019 в 18:29 ----------Кому интересно, могу в личку спалить адрес сайта