- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вроде этот вопрос обсуждался несколько раз, но вроде перерыл весь форум и так не нашёл ответа для моей ситуации. Может, конечно, и плохо искал.
У нас есть CMS, на ней работает несколько сайтов. CMS написа на java. В процессе работы сайтов оказалось, что google нехочет их индексировать.Индексную глотает, а дальше хоть бы что. Мы уже и на простые ссылки перешли, но ни какого прогресса не произошло. Уже 3 месяца прошло, а в индексе googla только по одной странице с каждого сайта.
Я нашёл, что он индексирует динамику только на один уровень, но тогда получается, что он индексную воспринимает как динамическую. Ссылка на неё простая и я прям не знаю, что думать.
Может нужно ко всем ссылкам ".html" добавлять, если кто то с таким сталкивался погите.
На наши сайты не буду давать ссылок, а то расценят как рекламу. Вот сай для тестов на нашей CMS
ссылка
Попробуй проверить файл robots.txt, не исключено, что там вообще запрещена индексация страниц. (domain/robots.txt)
Попробуй проверить файл robots.txt, не исключено, что там вообще запрещена индексация страниц. (domain/robots.txt)
посмотрел там вроде всё нормально
User-agent: * Disallow:
Правельней было бы так.
User-agent: *
Disallow: /директория
HEAD / HTTP/1.1
Host: test.xitex.net
HTTP/1.1 302 Found
Location: http://test.xitex.net/m1/ru/
С главной страницы сразу редирект, это на всех сайтах так?
Далее попытка поставить куку с идентификатором сессии, а Гугл сессии страсть как не любит.
Итого, резюме: надо избавиться от редиректа, если он есть, никаких признаков сессий Гуглу не выдавать.
Netsah, если не надо ничего запрещать, то
User-agent: *
Disallow:
тоже правильно.
Netsah, если не надо ничего запрещать, то
User-agent: *
Disallow:
тоже правильно.
Я хотел подчеркнуть, что в две строки писать нужно!
Да, Вы правы, User-agent и Disallow в одной строке писать нельзя. Хотя даже если так, то robots.txt будет просто игнорироваться.
он в две строки(robot.txt), я так скопировал коряво.
Редиректы везде, но без них нельзя. А почему может быть в этом причина? Какая ему разница?
Насчёт куков посмотрю,но я не думаю что в этом причина, сессия для сайтов не держится.
Насчёт куков посмотрю,но я не думаю что в этом причина, сессия для сайтов не держится.
Если без редиректов нельзя, то главной страницей изначально надо делать ту, на которую идет переадресация. Даже если это и не основная причина плохой индексации сайта, то проблемы с редиректами все равно будут.
Гуглу все равно, держится сессия, или нет, он не индексирует даже те ресурсы, где есть признаки сессий.
>Гуглу все равно, держится сессия, или нет, он не индексирует даже те ресурсы, где есть признаки сессий.
Когда на сайте, что у меня в подписи, ещё были сессии, то гугль меня вполне себе индексировал и даже выдавал PR внутренним страничкам. Когда я сессии убрал, его бот начал торчать на сайте постоянно, как прописался, а выдача начала меняться каждый день, но это и все отличия.