Santim

Santim
Рейтинг
105
Регистрация
03.06.2006
Должность
повышаю конверсию ваших интернет-магазинов

maximman, Думаю для начала стоит отписаться Платону и дождаться ответа. После его ответа, исключить дубли, закрыть от индексации (воспользуйтесь robots.txt) в все страницы которые по вашему мнению подозрительные. Следить когда зайдет робот Я. и "скушает" все заново.

Чтобы не ждать ответа, можеет сразу приняться за изменения, а по факту уже писать.

breakfast13, робот заходил? скушал страницы с обновленным контентом?

запросом site:kino-hit.com

показывает 0 страниц? ;)

oldsword, как именно смотрите проиндексированые страниц в Гугле? Я вижу 20 страниц.

Константинович:
Неуникальный текст частенько показывает уникальным.

есть примеры? Ни разу на практике такого не встречал.

oldsword, отдает Status: 200 OK? В файле robots что прописано? Показали бы сайт, а то гадание получается. Причин может быть сколько угодно много.

Lochushnik, вам поможет любой верстальщик, который за определенную плату возьмется это исправить, посмотрите в соответствующий раздел

D&E:
Уже прошел этап внутренней оптимизации

то что сделано сейчас, нельзя назвать внутренней оптимизацией и если вы сейчас уже готовы взяться за работу над внешними факторами, потеряете время и деньги, которым вы не располагаете.

Продумайте ещё раз структуру сайта, вычистите код от грязи, поработайте над оптимизацией каждой отдельной страницы, для каждой модели. На внутряке закройте открывающийся тег noindex. Займитесь внутренней перелинковкой по уже выбранному семантическому ядру, думаю вы его уже собрали?

Обращайтесь все контакты указаны.

terlimbombom, смотрите в панельке вебмастера? Как понял из вашего поста, всего Я загрузил 2969 страниц, а в индексе участвует 1118?

Загнал два проекта на пробу, вернее несколько ключевиков. На одном проекте вылезли все в топ5.

На втором, вылезли продержались 1 ап и упали. Больше движений по ним не было. Запросы все НЧ и СЧ. ВЧ туда загонять не собираюсь.

Всего: 1765