- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Некоторое время назад я читал книгу:
«Оптимизация и продвижение сайтов в поисковых системах» Ашманов И., Иванов А.
У меня появились вопросы по двум цитатам из книги.
Цитата 1:
форум), важно как-то запомнить дату его последнего посещения, на каких страницах
он побывал, какие настройки сделал и т. д. Для этого существует механизм
сессий - это уникальные идентификаторы каждого посетителя сайта.
У обычного пользователя идентификатор сессии хранится в Cookie браузера, но
у некоторых пользователей в браузере настройки установлены таким образом, что
Cookie отключены. Если посетитель приходит на сайт с отключенными Cookie, то
для того, чтобы проследить его действия, к каждому адресу страницы добавляется
идентификатор сессии (некая комбинация символов). Такие адреса могут выглядеть
так:
www.site.ru/forum.asp?topic=135&sessionID=42487E39A2B04279A42623E59DFF.
Поисковые роботы не могут принимать Cookie, поэтому получают идентификатор
сессии в адресе страницы, как те пользователи, у которых Cookie отключены.
Каждый раз, когда робот приходит на сайт, в котором используется механизм сессий,
ему присваивается разный идентификатор, который добавляется к адресам страниц,
и каждый раз одни и те же страницы для робота имеют разные адреса. То есть для
него это разные страницы.
После нескольких заходов на сайт в разное время поисковый робот имеет огромные
списки одних и тех же страниц с разными идентификаторами сессий. В результате
расходуются ресурсы сервера, а очередь до индексирования действительно важных
страниц может так и не дойти.
Исходя из этой цитаты, вопрос, как этого избежать?
Я выступаю в роли заказчика (я не программист и не SEO оптимизатор).
Поэтому мне нужно сформулировать указание для технического задания на сайт программисту.
Как правильно сформулировать?
«Для сайта отключить механизм сессий/идентификатор сессий»?
Возможно ли, отключить для сайта механизм сессий, если часть функций сайта будет работать
через куки (запоминать выбор пользователя в каталоге товаров и т.д.)?
Цитата 2:
того как на сайте была изменена адресация страниц, может возникнуть ситуация, когда
для каждой страницы сайта существует еще несколько ее копий. Приведем
в качестве примера несколько адресов, которые для робота будут разными страницами,
но на самом деле ведут на одну и ту же страницу (предположим, что на сайте были введены
псевдостатические адреса):
www.site.ru/script.php?page=service&imode=show
www.site.ru/service/
www.site.ru/service.html
www.site.ru/service.htm
Если на этом сайте, к примеру, было 1000 страниц, то поисковая система получит
4000 ссылок, а позже вынуждена будет выбирать из четырех копий наиболее релевантную
страницу. Чтобы этого не случилось, нужно проверять страницы сайта и
исключать ситуации, когда по нескольким разным адресам находятся совершенно
одинаковые страницы.
Отдельно следует отметить механизм «Яндекса» по удалению дубликатов: когда
количество одинаковых страниц сайта достигает определенного порога, запускается
специальная программа, которая удаляет лишние страницы из индекса поисковой
системы. Иногда после такой процедуры в индексе просто не остается документов
с сайта, и процесс индексации начинается с самого начала.
Здесь, исходя из этой цитаты, аналогичный вопрос, как этого избежать?
Как сформировать указание для технического задания на сайт программисту, чтобы не возникла
ситуация, когда для каждой страницы сайта существует еще несколько ее копий, как в примере выше?
Здесь, исходя из этой цитаты, аналогичный вопрос, как этого избежать?
Хранить идентификатор сессии в COOKIE, а не в URL сайта. Если это невозможно, можно исключить дубликаты через robots.txt (для яндекса параметр Clean-param) и в google webmaster (Сканирование -> Параметры URL).
ситуация, когда для каждой страницы сайта существует еще несколько ее копий, как в примере выше?
Так и написать, мол каждая сущность на сайте должна быть адресована только одним уникальным адресом URL. Страницы, которые могут содержать дополнительные параметры запроса, должны содержать canonical url.
Оптимизайка, благодарю за ответы.
Хранить идентификатор сессии в COOKIE, а не в URL сайта. Если это невозможно...
Почему это бывает невозможно (по каким техническим причинам)?
Почему это бывает невозможно (по каким техническим причинам)?
по техническим причинам кривых движков.
Как сформировать указание для технического задания на сайт программисту, чтобы не возникла
ситуация, когда для каждой страницы сайта существует еще несколько ее копий, как в примере выше?
А этот программист будет делать что? CMS или сайт на CMS? (думаете, он всё кривое переделает?)
Сформулировать ему — так как в той цитате.
Чтобы не было доступно страниц по произвольным адресам
www.ashmanov.com/company/news/&Мракобес☠
www.ashmanov.com/company?Мракобес☠