Ippolit

Рейтинг
13
Регистрация
10.10.2007

Большое спасибо всем за исчерпывающие ответы!

Цахес:
Если точнее, то несколько раз подряд, в момент обращения робота, сайт был не доступен.

Сайт с самого начала существования (4 месяца) - яндекс всегда его показывал именно таким видом.

Получается, робот Яндекса его никогда не видел? Т.е. сайт всё время находился в поиске за счёт внешних факторов?

Как же он тогда был в топах?...

У меня на этом хостинге хостятся ещё два домена. Они отображаются и отображались всегда правильно. Один из них всегда находится на 1-м месте (и сейчас тоже).

Но они построены на обычном html.

Этот (проблемный сайт) на php - интернет магазин.

Я замечал пару раз, что он был недоступен по причине, что у хостера отключался зенд-оптимизёр.

Причина получается именно в ПО хостера...

Искать другой хостинг?

Хотя это уже будет за столь короткий промежуток времени вторая смена хостинга.

Подскажите, где поискать инфу, какой хостинг наиболее благоприятный для движков, работающих с зенд-оптимизером?

ARCOS:
Причина в том, что сайт часто бывает недоступен.

Это единственная причина или могут быть ещё и другие?

Дело в том, что сайт по нужным запросам (для узкого региона) был постоянно в первой тройке к выдаче (конкурентов десятки).

Если бы он был часто недоступен, вряд ли это было возможно. Тайтл всегда отображался именно так.

Правда сейчас резко потерял позиции (предполагаю, по другим причинам), но одна из причин - такой тайтл

P.S. Хостинг очень хороший и недешёвый.

skady:
А что в Google Sitemaps? Показывает количество загруженных страниц за сутки и др.?

Должно быть тут - https://www.google.com/webmasters/tools/hostload?siteUrl=http%3A%2F%2Fflowermarket.com.ua%2F&hl=ru

Говорит что загружено именно такое количество, как я отправлял. Читает его в течении нескольких часов (обновляет данные о чтении). Но новых данных (т.е. включенных в индексацию страниц) нет и не появляется.

albion:
только robots.txt ;)

Раз уж затронули robots.txt

У меня он выполнен вот так:

User-agent: Yandex
Disallow: /cgi-bin
Host: www.site.com.ua

Нет ли ошибок? Пробую двигать с www

И если закрывать noindex по этому сообщению:

Магазин (скрипт) прям создан для клонирования контента: сортировки по возрастаню/убыванию цен и наименований, и конечно же пресловутые "версии для печати", а еще "показать все" - выдают одно и то же поисковикам в разных упаковках. Так что: <noindex> и nofollow вам в помощь.

как не накосячить, чтобы лишнего не закрыть?

Примеров для cms не найдётся?

apache:
Жирные ссылки конечно не помешали бы - это только плюс.
НО вы бы попробовали, просто ради эксперимента, заменить одну из уже проиндексированных страних, на что нить другое(пусть левое, этоже только эксперимент) с тэгами и тд. и посмотрели бы.

Т.е. не обязательно весь сайт сразу менять, но для нахождения проблемы, это как вариант(изменить однустраницу и посмотреть).

Попробую сегодня это сделать.

Жирные внутренние ссылки тоже установлю.

По ссылкам не принципиально как их оформлять? Просто ссылка и имя страницы?

Тут мне ещё подсказали, что верхние менюшки в php а боковые в html. Тоже приведу в порядок, переведу в html.

На одном из форумов человек написал:

Магазин (скрипт) прям создан для клонирования контента: сортировки по возрастаню/убыванию цен и наименований, и конечно же пресловутые "версии для печати", а еще "показать все" - выдают одно и то же поисковикам в разных упаковках. Так что: <noindex> и nofollow вам в помощь.

Это может повлиять, или ещё рано?

И действительно нужно так много закрывать?

Psycho:
у Вас в верхнем меню ссылки на php, в правом - на html. Так и должно быть?

Верстал и отлаживал скрипты не я...

Похоже одна из причин проясняется : )

Это может влиять?

albion:
Мало времени прошло. Ждите.

Буду ждать, куда деваться.

Есть смущающее обстоятельство.

Я почти каждый день обновляю файл map.txt и приглашаю робота гугля.

Когда были html, после проглатывания map.txt данные в панели вебмастера гугля обновлялись в течении суток/двух.

А сейчас в панели вебмастера гугля остаются старые данные, хотя робот файл проглатывает, и сообщает, что map.txt обработал. Значит и дальше движения не будет...

svift:
А не пробовали поставить пару-тройку жирных ссылок на внутренние разделы новой структуры?

Хорошее предложение, можно поставить.

Но беда в том, что не идексируется ни одной страницы, даже главной.

Т.е. в гугле информация только о тех страницах, которые были до установки скриптов.

И названия этих страниц отличаются от теперешних.

123
Всего: 21