- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
на сайте используется аутентификация с сессиями. Гугльбот как заходит, так заваливает ядро и сайт стопорится. Есть ли какие-то настройки для гугля, чтобы он понимал, что есть куки и все такое.
Яндекс сайт проиндексил без проблем
Сайт law.edu.ru
1) Роботы про куки не знают.
2) Раз ваш сайт умеет давать session-id, то по User-Agent можно сообразить, что основным роботам не надо давать session-id в ссылках.
А если у пользователя стоит запрет на запись в куки, что происходит?
Есть. Установите Вашему программисту драйвер pryamye_ruky.sys.
Иногда при этом требуется апгрейт драйвера smart_head.sys у менеджера до более свежей версии.
Теперь объясняю по буквам: нет никакой надобности в установке куки или открытии сессии до тех пор, пока посетитель не выразит в этом явного желания. Например не добавит товар в корзину. Т.е. нужно открывать сессию только на одной странице. Данная страница должна быть закрыта в robots.txt. Разумеется страниц может быть несколько, но все они должны быть закрыты для доступа роботами, чтобы они не подхватили сессию.
на сайте используется аутентификация с сессиями.
Яндекс сайт проиндексил без проблем
Яндекс не понимает сессии, индексит все подряд, в итоге в индексе куча одинаковых страниц по разным url и позиции в выдаче сильно снижаются. У меня была такая ситуация, и я имел переписку с админами из Яндекса. Они посоветовали закрыть их robot.txt. Хотя по-моему можно и по ip useragent'у определять.
Теперь объясняю по буквам: нет никакой надобности в установке куки или открытии сессии до тех пор, пока посетитель не выразит в этом явного желания. Например не добавит товар в корзину. Т.е. нужно открывать сессию только на одной странице. Данная страница должна быть закрыта в robots.txt. Разумеется страниц может быть несколько, но все они должны быть закрыты для доступа роботами, чтобы они не подхватили сессию.
Aртем, а вот, допустим, такая ситуация. Магазин имеет огромную дилерскую сеть, много тысяч, к примеру. с дилеров ссылки во всевозможные разделы магазина идут с уникальными параметрами, которые дальше таскаются внутри магазина, если юзер пришел с дилера. Т.е. вся сеть наводнена формально различными ссылками на один и тот же контент.
Какие оптимальные варианты избежать проблем с дубликатами и не раздражать поисковики?
Отключил я куки и все работает из браузера так же.
Короче система такая. Есть СОМ-объект, ответственный за соединение с датабазой. Я его открываю в начале сессии и держу открытым всю сессию, для убыстрения. Так вот гуглебот почему-то вешает всю малину. Он сессии не понимает? Или что?
По-моему, выход только один - что-то менять на тех страничках - какой-нибудь random content;)
Самый простой - при остутствии реферера выдавать 404.
Чуть сложнее - проверять UserAgent, и поступать также.
Если подумать ещё чуть-чуть, то можно вообще избавиться от параметров в ссылках. В подробности вдаваться не буду - ход мысли понятен, остальное - маленькое ноу-хау :). (Да и на конференции что-то относительно новое докладать надо :))
Я бы за такие фокусы банил :D
RodionV, почитай о connection pool. Совсем не обязательно использовать сессии для хранения коннекции.