Спрашивал про трафик чисто из любопытства: интересно стало, сколько посетителей может собрать подобный сайт в этой теме.
Мне кажется, что самый главные резерв, который есть и не используется - это внутренняя оптимизация. Посудите сами: тема конкурентная, внешних ссылок у Вас крайне мало, и они вовсе не супер-качества. То есть, за счет ссылочного ранжирования "продавить" Ваши запросы в ТОП не получится точно - или выйдет слишком дорого, если начнете закупаться ссылками.
А вот за счет приведения страниц в образцово-показательный вид, близкий к идеалу - можно. Сейчас в поиске Гугла у Вас участвуют лишь 13 страниц, они могут давать какой-нибудь трафик. Остальные - увы, бесполезны. И это никакая не конкуренция или еще что! Это чисто внутренняя проблема, которая появилась на этапе дизайна (верстки) сайта. Это очень распространенное явление: разрабатывается сайт совершенно без учета, как его потом продвигать.
Первое, что бы я сделал - это очень плотно поработал бы с HTML-кодом страниц. Добился бы, чтобы страницы сайта содержали лишь то, что полезно для раскрутки, а все остальное назвал бы мусором и безжалостно уничтожил. Цель - добиться, чтобы большая часть страниц попали бы в основной индекс Гугла и стали собирать трафику по тем запросам, пусть даже НЧ, под которые они заточены. Иными словами, сделал бы то, что МОЖНО продвигать.
Вторым делом, после приведения всего сайта в божеский вид, я бы выбрал одни какой-нибудь запрос, средней силы, и попытался бы поставить его на первую страницы выдачи. Для этого, возможно, пришлось бы создать несколько страниц под него, слинковать их таким образом, чтобы они помогали друг другу подниматься.
Скорее всего, пришлось бы обратиться и к внешним ссылкам, но это уже третье дело, по результатам того, куда попала страница чисто за счет внутренней оптимизации.
Я хочу сказать, что существует всего лишь два метода воздействия на позиции сайта: внутренние (SEO) и внешние (ссылки, пиар). Если тематика достаточно конкурентна, как в Вашем случае, то пренебрегать любыми, даже мелкими факторами ранжирования, не стоит. Если для этого требуется переделать дизайн, перенести сайт на другую платформу или что-то еще, что обычно пугает веб-мастеров до трясучки - не задумываясь, я бы это сделал. Критерий внутренней оптимизации прост: надо открыть код и, глядя на каждую его строчку, ответить на вопрос: можно ли ее улучшить еще?
Да, мы про этот сайт говорили. Я тогда не был уверен, что это фильтр, потом посмотрет поподробнее, и Вы оказалались правы: фильтр чистой воды!
Это было не менее двух недель назад; к тому же ТС до наступления этой неприятности еще какое-то время ждал. Я к тому, что вариант "подождите недельку" не прокатит: джать придется отмены санкций, а это может быть очень долго.
В нынешнем состоянии в сайте нет ничего такого, за что бы Гугол мог так сурово покарать. Может, в прошлом было какое-то действие, которое внешне безобидно. или случайная ошибка, которую Гугол трактовал как грубое нарушение и наложил санкции.
=================
В качестве примера приведу ситуацию, когда на одном молодом сайте был поставлен "сквозняк" в подвале на другой молодой сайт. Ссылка простояла дня три, потом была снята. Этого хватило, чтобы на месяц с небольшим трафик с Гугла обнулился. Потом в течении буквально двух дней все восстановилось. Года три назад попадал в ситуацию и похуже: домен в DMOZ и с PR=4 (как понимаете, никак не нулёвый) был выброшен из индекса насовсем, за пол-года не восстановился и был заброшен. Единственная причина, на которую грешу - на сайте генерировалось великое множество URL-адресов (проблема сессион ID). Когда в Гугол попало 65 тысяч таких "страниц", наступила кара.
Разумеется, учитывает! Учитывает двояко.
1. Страница, на которой стоит внутреняя ссылка, запросто может найтись по анкору. Особенно, если это главная страница сайта.
2. Слова из анкора имеют больший вес на странице-доноре. Особенно, если на нее ссылается главная страница.
А вот сказать количественно, на сколько этот самый "вес" больше, вряд ли, кто сможет. Чем тематичнее - тем вес больше, это общая закономерность.
Потому, что "подвал" - это самое последнее место, которое видит посетитель. Это понимают все, в том числе и алгоритмисты поисковых машин. Если веб-мастер хочет, чтобы на что-то обратили внимание - разве он станет помещать это в такие места, которые просматриваются в последнюю очередь?
Ссылки в подвале - это всегда плохо; внешняя ссылка в футере - очень плохо. Несколько внешних ссылок в подвале - СМЕРТЕЛЬНО опасно.
Ни при каких условиях на новый сайт не будет трафик 100 уников в сутки на второй день! Даже если принять в учет рекламный трафик - все равно не получится. Враньё это!
Если не секрет - какой трафик сейчас у Вас на сайт? Имею в виду поисковый.
Если решили делать его автоматически (как, в принципе, все мы и делаем), то учтите три момента:
1. В самом начале (примеро 150 символов) вставьте начало контента. Соответственно, ВСЕГДА пишите в начале текста "фразы-завлекалочки", чтобы люди охотнее переходили. Разумеется, с использованием МОРФЛОГИИ (словоформ) от основного ключевика. Точное вхождение будет в п.2.
2. Сразу за этим - текст заголовка. Это затем, чтобы все важнейшие ключевые слова попали и в DESCRIPTION. Именно поэтому в п.1 лучше использовать словоформы.
3. Дальше можно применить вольную автогеренацию теста. Все равно это никто из пользователей не увидит, а уникальность обеспечит.
Сорбственно, все.
Нет. Его надо сделать уникальным для каждой страницы.
Это достаточно трудный случай. Как говорится, "по определению". Подумайте сами: люди размещают на Ваш сайт статьи для того, чтобы продвинуть свою собственную страницу, а не ту, которую они создают при этом на Вашем сайте.
Почти наверняка львиная доля размещенных статей - или копипаст, или машинный синонимайз, очень слабенький. То есть, получается, что на каждую Вашу статью в Интернете имеется несколько, которые заведомо сильнее.
Из каталогов статей нормально показываются в Гугле лишь самые-самые именитые. Остальные безусловно проигрывают тематическим сайтам. Потому и говорю, что случай тяжелый.
Я открыл эту страницу, схватил из начала достаточно длинную фразу и поискал по ней в Гугле. Ваша страница нашлась, как и положено, в ТОП. Далее я посмотрел ее кэш (от 28 мая). Никакой абракадабры я не увидел.
Willie добавил 03.08.2010 в 14:10
Ну, во-первых, это совсем не много - 26 фраз. Во-вторых, по запросам "маршрут", "на карте", "как найти", "контроль топлива" будет очень сложно попасть в ТОП, да и стоит ли овчинка выделки?
Разумеется, надеяться вывести все оставшиеся запросы в ТОП одной страницей - задача не разрешимая в ближайшем будущем. Потенциально можно, но лишь после того, как сайт станет серьезным авторитетом в GPS, а для этого понадобится много хороших страниц.
Соответственно, их надо создавать. То есть, попробуйте сайт структурировать: разбить на разделы. Например, раздел про поиск людей, поиск животных, отслеживание автотранспорта, а также разделы по технической градации: передатчики, приемники, антенны, установка (монтаж), новинки, продажа. Должно получиться порядка десяти, что вполне терпимо и даже удобно.
Далее в каждый раздел поместите статьи, строго по теме этого раздела. Вот и получится сайт. Останется перелинковать страницы - прежде всего, основным меню навигации, а из текста - контекстными ссылками (штуки три - оптимально). По ходу смотрите, куда попадают Ваши запросы, на какие позиции. Исходя из этого, корректируйте тактику продвижения. Задача на этом этапе - добиться, чтобы страницы показывались максимально высоко БЕЗ внешних (покупных) ссылок. Для этого придется сравнивать их с конкурентами и дорабатывать, чтобы они были лучше по всем параметрам.
В частности, и по этим тоже.
Когда все "внутренние" дела сделаны, и улучшать больше нечего, самое время будет обратиться к ссылочному ранжированию - то есть, при помощи внешних ссылок попробовать "приподнять" нужные страницы до желаемой позиции. Если внутренняя оптимизация сделана близко к идеалу - то затраты будут терпимыми; в обратном случае понадобятся большие вливания капитала.
Собственно, так выглядит продвижение ЛЮБОГО сайта - или должно так выглядеть. Судя по Вашим заголовкам, не использованных возможностей - пока море.
Гугол может:
а) сильно учесть ссылку с NOFOLLOW;
б) учесть ее слабо;
в) напрочь проигнорировать.
Как говорится, во-многом "зависит от фазы Луны". Со своей стороны мы можем сделать по-максимуму, чтобы фаза Луны оказалась нужной. Но не более.
О чем я? Как правило, NOFOLLOW-ссылки ставятся тогда, когда нет возможности поставить нормальную, по принципу "с паршивой овцы хоть шерсти клок", или "запас карман не тянет", кому как нравится. Чтобы склонить мнение Гугла к пункту А, нужно уделить внимание трем слагаемым: анкору ссылки, ее окружению (в особенности - TITLE страницы-донора) и содержанию страницы-акцептора. То есть, сделать эти три компонента релевантными по-максимуму. Это то, на что оптимизатор повлиять может.
Кроме этого, играют роль ДРУГИЕ ссылки, ведущие на страницу-акцептор. То есть, Гугол всегда сверяет: а как видят эту страницу пользователи? Как они ее называют в анкорах своих ссылок (предполагается, что ссылки ставят пользователи)? Лучший анкор - это тот, который похож на самые "сильные" внешние, но немного отличается - например, написанием (морфологией) или введением дополнительного слова. Если и это соблюдается - то можно считать, что мы сделали все возможное, чтобы ссылка с NOFOLLOW "стрельнула" максимально полезно.