- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Размышляя над вопросом о переделке сайта на работу по протоколу https, просматриваю в сети всякую информацию, относящуюся к этому вопросу.
С одной стороны, нам этот протокол ни к чему, поскольку контентный проект не предполагает получение платежей и ввод данных о кредитных картах.
А с другой стороны, у нас есть подписка на новости, где человек вводит название своей фирмы, должность, ФИО, почту и телефон. А это персональные данные.
К тому же, как можно предположить, рано или поздно все перейдут на шифрованный протокол, так что тянуть?
Обратил внимание на то, что сейчас у некоторый сайтов есть два адреса - по шифрованному и по обычному протоколу. К примеру, сайт http://vsadu.ru/ и https://vsadu.ru/. Правда, в роботсе http://vsadu.ru/robots.txt у них есть директива "Host: https://vsadu.ru", но ведь она только для Яндекса, но не для Гугла!
Разве открывать сайт по двум адресам - это нормально? Ведь по сути это полные дубли контента!
Ну, по сути, это зеркало сайта. Зеркало и склейка - разные вещи. Есть такая практика, давать юзеру возможность "переключаться" между защищенной и обычной версией сайта. Зависит от задач. Хотя, сложно предугадать, как поведут себя поисковики, если всю жизнь сайт жил по HTTP, собирал бэки, а тут вдруг появился HTTPS в виде главного зеркала, при чем HTTP не редиректится на него.
Если есть желание перейти на HTTPS, думаю, стоит делать так, как многие рекомендуют - с редиректами. Сам не так давно переводил сайт на HTTPS, просадки трафика вообще не было.
Если есть желание перейти на HTTPS, думаю, стоит делать так, как многие рекомендуют - с редиректами.
То есть, сразу прописываем редирект с HTTP на HTTPS, не дожидаясь, пока поисковики новый для них сайт проиндексируют?
То есть, сразу прописываем редирект с HTTP на HTTPS, не дожидаясь, пока поисковики новый для них сайт проиндексируют?
Сначала включить https, потом указать протокол в robots.txt, дождаться переиндексации, потом только ставить редирект.
Если сделать редирект сразу, то с большой вероятностью поисковики сначала выкинут из индекса сайт на http, а потом неспеша проиндексируют на https.
А если вообще не делать редирект?
(Пусть так и будет два адреса, если поисковики не возражают)
Если это не считается дублями.
Я не в курсе, если честно :)
Разве открывать сайт по двум адресам - это нормально?
Это не 2 адреса, а доступность одного документа по 2м протоколам.
А если вообще не делать редирект?
Правильное решение! У юзера должен быть выбор как ему юзать сайт (далеко не все хотят получать контент по httpS).
А ПС разберутся что в выдачу дать. Вернее с бОльшей долей вероятности в серпе будет httpS, тк гигантам выгодно подсаживать юзеров на это.
;14780415']Сначала включить https, потом указать протокол в robots.txt, дождаться переиндексации, потом только ставить редирект.
Примерно так, да. Разве что, еще надо HTTPS-версию сайта добавить в панели вебмастера Яндекса и Гугла, а для Яндекса еще и указать главное зеркало там.
По поводу редиректов. Редиректим все HTTP URL'ы на соответствующие HTTPS (некоторые ошибочно всё редиректят на главную HTTPS). При этом robots.txt HTTP-версии редиректиться не должен.
А вообще, думаю, можно для поисковиков сделать этот редирект и для "вновь зашедших" юзеров. А при серфинге уже давать возможность переключаться между протоколами, сохраняя состояние, например, в куки.
А вообще, думаю, можно для поисковиков сделать этот редирект и для "вновь зашедших" юзеров.
Редиректить вообще не нужно. ПСы сами возьмут httpS и юзер с ПС перейдёт на httpS.
Предложить пользователем сменить протокол - возможно и стоит. Но разве что с http на https - многие ведутся на "вы можете воспользоваться безопасным сёрфингом сайта". Но делать это ненавязчиво.
Для обратной процедуры - не стоит, ибо те кто понимают - могут и сами удалить S в адр. строке. А писать что-то обратное фразе выше - у юзера моск взорвётся :)
А при серфинге уже давать возможность переключаться между протоколами, сохраняя состояние, например, в куки.
Для этого не куки нужны, а протоколонезависимые внутренние урлы.
Куки как раз будут вредны, тк не дадут сменить протокол просто из адр строки.
Для этого не куки нужны, а протоколонезависимые внутренние урлы.
Вы имеете в виду относительные ссылки с базой "//" ?
Вы имеете в виду относительные ссылки с базой "//" ?
Не обязательно, но не исключается и это.
Обычные относительные ссылки протоколонезависимые.
Кроме того движок может подставлять нужное перед выводом.