bloodman

Рейтинг
6
Регистрация
16.03.2016
YaanGle:
Как вы это обнаружили?

Она могла уже давно попасть в индекс (находясь там параллельно с http-версией), просто сейчас в выдаче вы заметили именно https. "Переиндексироваться" как https она не может, т.к. это будут разные адреса, их нужно клеить к одному виду.

Если Вы подключаете ssl-сертификат, то нужно провести грамотный переезд на https версию.

Обнаружил просто прописав в гугле название магазина.

Возможно и давно была. Мне необходимо наоборот убрать из индекса https, и вернуть ссылку без https. Т.к. на данный момент некорректно выводит страницу в индексе (тайтл корявый, в описании пишется "Описание недоступно из-за ограничений в файле robots.txt."), и страница некорректно отображается.

Focky:
возможно стоит задавать конкретные вопросы, показав при этом конкретные урлы.
как это правильно организовать - можно написать тут огромную статью. думаете кто-то это будет делать. при том что информации кругом - море.

Ну например:

1) урл категорий: было - /catalog/193 стало - /ru/skatnaja_krovlja/metallocherepica/pruszynski/

2) урл товаров: было - /item/14 стало - /ru/ploskaja_krovlja/evroruberoidy/tehnoelast.html

Вопросы:

1) Можно ли из-за таких кардинальных переделок попасть под фильтра?

2) Я поменял дизайн, поменял CMS, поменял УРЛ, сейчас будет делать внутренняя оптимизация, только после этого я планирую переподвязать домен на новый сайт. Правильно ли я делаю (все скопом сделать и готовый сайт подвязать на домен), или же стоит как-то постепенно это делать?

Так есть какие-то варианты реализовать задуманное?

Вот тут вопрос. Как бы для старта можно вообще ссылки не вешать, а потом через пару дней повешать, но это опять же не долгосрочно, не знаешь когда следующий раз они будут перепроверять.

А что если проверять $_SERVER['HTTP_USER_AGENT'] на гуглбота? И если это бот, то не выводить этот JS? Такой вариант может сработать?