Совершенно нет никакого смысла прятать навигацию. Она должна быть и ПС это знают, просто они игнорируют навигационные ссылки при расчете веса самих страниц сайта. Вот и все! А все ухищрения вебмастеров вроде того примера, который вы описали имею весьма сомнительный характер!
Также, спрятав меню вы затрудните обход сайта для поискового бота. На вопрос как прятать, если всё же решитесь отвечу, что спрятать сегодня можно только через JS. ПС давно уже игнорируют директивы "ноуиндекс" и "ноуфоллов".
Никакой гарантии, что сайты не попадут под аффилиат-фильтр нет и никто никогда не скажет "какова вероятность"! Но вот, что сделал бы я:
1. Уже было сказано, что сайты нужно продвигать по разным ключам. В данном случае не просто тупо по разным ключам, а по разным семантическим ядрам. Вам необходимо условно разделить тематику и сделать так, чтобы с точки зрения логики один сайт как бы дополнял другой! Вот, на примере недвижимости, могу привести пару примеров: один сайт по квартирам (вторичка и новостройки), а другой по домам и коттеджам. А если такое было невозможно осуществить, то делали отдельный сайт, где была только элитка.
2. Попытайтесь скрыть контакты, если это возможно любыми средствами: тупо их спрятать оставив контактную форму. Если это невозможно, то убрать их из текста и сделать картинкой, картинки должны быть совершено разными (уникальными). Если есть карта проезда, то она также должна быть уникализирована! А ко всему этому ещё лучше создать иллюзию того, что это разные подразделения/филиалы одной компании.
3. Необходимо разместить сайты на разных IP-адресах.
4. Сайты не должны быть перелинкованы между собой.
5. Шаблон дизайна должен различаться не только шапкой и футером, но и структурно, т.е. вёрстка должна быть разной.
Если соблюсти все эти пункты, то вероятность попадания под фильтр минимальна!
Что такое "песочница" несложно узнать из поиска, но не буду уподобляться умникам и просто сделаю копипаст первого попавшегося определения. ))))
"Песочница" на жаргоне оптимизаторов – это программный алгоритм, состоящий из ряда факторов, который применяется поисковой системой Google и Яндексом к новым сайтам. Важнейшим и определяющим фактором данного фильтра является время, в течение которого сайт известен поисковой системе.---------- Добавлено 28.09.2012 в 14:35 ----------
Ещё добавлю от себя более широкий ответ и на этот вопрос! Она лучше тем, что Яндекс с лёгкостью отделяет "основной контент" страницы от всех остальных элементов (хедер, фетер, навигация, другие повторяющиеся блоки и т.д.) и придаёт значение только ему. Другими словами навигация - это просто элементы управления для пользователя, а ссылка из "тела" контента означает, что читающему данный материал автор сайта предлагает перейти по ссылке, где он найдёт другой полезный для читателя материал. Коряво, конечно, объяснил, но думаю,что логик понятна!)))
Вот дело говорят! Хотя, прежде чем делать MFA-шку необходимо оценить коммерческую привлекательность тематики и востребованность запросов, под которые вы собираетесь затачивать страницы сайта для Директа, Эдсцена или кого вы там собираетесь использовать! А то можно взять весьма конкурентную тематику в которой совершенно нет денег! Но в вашем случае, я думаю, что проблема в конкурентной среде, т.е. люди просматривают выдачу и кликают по другим ссылкам, принимая вашу за "нетематическую"... Ведь те, кто забивает "курорты краснодарского края", к примеру, едва ли ищут там какую-то общую краеведческую информацию!
Но на самом деле причин может быть море - тут нужно детально сайт анализировать! И что-то покупать на Сапе, а потом же сливать, создавая тем самым "текучку" уж точно добра сайту не приносит!
Общие рекомендации могу дать такие:
1. Пересмотрите своё семантическое ядро на тему коммерческой привлекательности, ужмите его или расширите по ситуации.
2. Логически раздробите свой сайт затачивая отдельные разделы и/или страницы под отдельные запросы или группы запросов.
3. Грамотно составьте анкоры с учётом переработанного семантического ядра, воспользовавшись той же Сапой (я генерю сразу тонну, потом отбираю и правлю самые удачные).
4. Покупайте вечные ссылки используя нагенерённые анкоры через ГоГетлинкс, Блогун и т.д. Также весьма эффективно статейное продвижение, но оно обходиться дороже!
5. Занимайтесь тематическим ссылочным обменом. Конечно, сейчас много споров на этот счет... Но перекрёстный и даже прямой (!) тематический ссылочный обмен положительно влияет на тИЦ и упрощает выход в топ по прокаченным запросам. Можно сказать "стабилизирует" ваши позиции в выдаче!
6. Не забудте про внутреннюю перелинковку страниц.
Вот что можно посоветовать не видя самого сайта!
А про Спу забудьте! Она нужна на старте, чтобы быстро нагнать тИЦ и начать размещать ссылки от той же ГоГетлинкс и т.д. И для коммерческих сайтов при продвижении по СЧ и ВЧ, когда вы выбрались уже в 20-ку или на её порог другими средствами и нужен отрыв!
Тогда, вообще, не о чем беспокоится! ПС игнорируют эту часть кода страницы.---------- Добавлено 27.09.2012 в 15:38 ----------Если вопросы были по сайту http://totuga.ru/ , то там всё ништяк! Хотя, я бы немного переделал главную. А http://timesnet.ru/ вроде как на Битриксе, почему на "тотуге" не стали его использовать?
Совершенно верно! От себя же добавлю, что по этому же принципу проще и тИЦ наращивать, а не только ПР, но для этого всё таки потребуется небольшая внешняя ссылочная масса, и в данном случае нужно ставить внешние ссылки на статьи, на которые уже ведут внутренние ссылки вашего сайта.
Возвращаясь к основному вопросу ТС хочу сказать, что внутренняя перелинковка необходима для упрощения и удешевления продвижения проекта по основным запросом. Нередко можно вытащить в топ сайт по некоммерческому НЧ запросу только благодаря внутренней перелинковке. Естественно, с учётом того, что сайт уже не находиться в "песочнице" и обладает некоторым объёмом внешних ссылок через ссылочный обмен с другими сайтами или через регистрацию в каталогах сайтов или статей.
Надеюсь, что был чем-то полезен!)
Очень важное замечание! Если речь идёт об отдельно (!) взятой странице, то суть верна! Но если вы продвигаете сайт, где семантическое ядро состоит только из фраз связанных с "продажами слонов в Москве", то необходимо думать о более сложных распределениях ключевиков на разных страницах сайта и "затачивать" отдельно взятые страницы под конкретные наиболее близкие с точки зрения семантики запросы! И не злоупотребляйте тегами заголовков, лучше использовать только один "H1", в крайнем случае два ("H1", "H2") на странице! От стронгов-болдов вас уже отговорили - это правильно, но это не значит, что их, вообще, нельзя использовать - можно, но только там, где они уместны с точки зрения восприятия страницы пользователем!
ЗахарOFF, с Друпалём всё ништяк - хорошая система, да тяжёлая! Но по мне лучше Друпаль с открытым кодом, чем Битрикс. Я по тяжеловесности и возможностям их примерно на одну полку ставлю! Безусловно, HTML-код и его "понятность" для поисковика важна, так было есть и будет в мире машин! Сейчас очень сложно говорить о том, насколько критично то, о чем вы спрашиваете. Но если бы подобной проблемы не существовало, то никто бы не делал css верстку таким образом, чтобы "основной контентный блок" находился выше сайдбаров! В любом случае, сейчас поисковые боты с лёгкостью отрезают все элементы верстки, которые по их мнению не являются "основным контентом".
Поэтому, конечно, если есть возможность, то лучше оптимизировать верстку! Если такой возможности нет, то не всё так и критично! Если бы я увидел сайт - сказал бы больше! Если же вы имеете ввиду подключение всяких скриптов и сценариев, которые пишет CMS, то можете не заморачиваться - ПС это игнорируют и совершенно неважно сколько это занимает в теле HTML-документа.
Начинать можно сразу! А если понемногу покупать ссылки через ГоГетлинкс или постовые через Блогуна, то можно было начинать и до индексации - никакого криминала, если не делать масштабные прогоны! Хотя, я занимался только коммерческими проектами, которые априори не могли попасть под какие-то фильтры кроме "ссылочного взрыва". Так что могу "быть неточным".))) Но у вас другая проблема - слишком мало страниц для того, чтобы ПС восприняли такие сайты за что-то приличное! Наращиваете объём, а то в "песочнице" можно и год проваляться - такие случаи тоже были в моей практике с коммерческими сайтами, объём которых не превышал 10 страниц.
И почему все думают, что сайт должен "отлежаться"... и начинают считать с момента заливки его на хостинг!))) Для ПС совершенно не важно сколько он у вас там лежал до того момента, когда индексирующий бот до него добрался, поэтому после запуска проекта пытайтесь спровоцировать индексацию любыми средствами! Я сразу же подключаю "метрику" и "аналитику" от Яндекса и Гугля и сервисы для вебмастеров от них же. Если у вас "MFA-шка", то сразу устанавливайте блоки от РСЯ и Эдсцен - прекрасно ускоряют индексацию!
Вроде всё что хотел сказать!)))
1. Исправьте адреса. Все должны быть латиницей, а не "как бог на душу положит". Имена, которые уже в латинице - не переименовывайте, чтобы при переиндексации было меньше ошибок 404.
2. Сделайте склейку домена в .htaccess с www и без него. Если не знаете как как это правильно сделать - в поиск по запросам "склейка домена", "работа с .htaccess" и т.д. Опять же можно через .htaccess сделать редирект со старых "неправильных" адресов на новые, но так как они на русском, то могут возникнуть нюансы с кодировками в самом .htaccess - реально не пробовал такое вытворять!))))
3. В robots.txt ничего лишнего не пишите и не запрещайте там index.php - так не делают! Нужно сделать редирект с http://interior.spb.ru/index.php на http://interior.spb.ru/ опять же через .htaccess.
--
В целом, сайт приятный! Кто бы что не говорил! Может с точки зрения UX шапка и великовата, но она в данном случае должна отражать тематику и привлекать внимание. Но я бы обязательно выделил бы "любым из доступных способов" (цвет шрифтов, некоторое фоновое подсвечивание или обрамление) блока с контактной информацией, а то он немного теряется.
Желаю удачи!