Willie

Willie
Рейтинг
240
Регистрация
08.10.2008
natariga:
Страница с абракадаброй - http://www.ros.lv/tpl_ros.php?ed=-1&lang=ru&page=46&all_art=7
И робот ее в таком ужасе видит....

Я открыл эту страницу, схватил из начала достаточно длинную фразу и поискал по ней в Гугле. Ваша страница нашлась, как и положено, в ТОП. Далее я посмотрел ее кэш (от 28 мая). Никакой абракадабры я не увидел.

Willie добавил 03.08.2010 в 14:10

slashi:
Как правильней сделать - много слов получилось, их все интегрировать в текст одной страницы сайта или создать под каждую группу слов по страничке как-то? Т.е. задача, чтобы все, кто ищет что-то подобное, видели также в результатах и новинку - mamagps, и заходили бы, поинтересоваться что это такое.

Ну, во-первых, это совсем не много - 26 фраз. Во-вторых, по запросам "маршрут", "на карте", "как найти", "контроль топлива" будет очень сложно попасть в ТОП, да и стоит ли овчинка выделки?

Разумеется, надеяться вывести все оставшиеся запросы в ТОП одной страницей - задача не разрешимая в ближайшем будущем. Потенциально можно, но лишь после того, как сайт станет серьезным авторитетом в GPS, а для этого понадобится много хороших страниц.

Соответственно, их надо создавать. То есть, попробуйте сайт структурировать: разбить на разделы. Например, раздел про поиск людей, поиск животных, отслеживание автотранспорта, а также разделы по технической градации: передатчики, приемники, антенны, установка (монтаж), новинки, продажа. Должно получиться порядка десяти, что вполне терпимо и даже удобно.

Далее в каждый раздел поместите статьи, строго по теме этого раздела. Вот и получится сайт. Останется перелинковать страницы - прежде всего, основным меню навигации, а из текста - контекстными ссылками (штуки три - оптимально). По ходу смотрите, куда попадают Ваши запросы, на какие позиции. Исходя из этого, корректируйте тактику продвижения. Задача на этом этапе - добиться, чтобы страницы показывались максимально высоко БЕЗ внешних (покупных) ссылок. Для этого придется сравнивать их с конкурентами и дорабатывать, чтобы они были лучше по всем параметрам.

slashi:
Что именно нужно на этом сайте оптимизировать еще? Title, Description, перелинковка?

В частности, и по этим тоже.

Когда все "внутренние" дела сделаны, и улучшать больше нечего, самое время будет обратиться к ссылочному ранжированию - то есть, при помощи внешних ссылок попробовать "приподнять" нужные страницы до желаемой позиции. Если внутренняя оптимизация сделана близко к идеалу - то затраты будут терпимыми; в обратном случае понадобятся большие вливания капитала.

Собственно, так выглядит продвижение ЛЮБОГО сайта - или должно так выглядеть. Судя по Вашим заголовкам, не использованных возможностей - пока море.

Гугол может:

а) сильно учесть ссылку с NOFOLLOW;

б) учесть ее слабо;

в) напрочь проигнорировать.

Как говорится, во-многом "зависит от фазы Луны". Со своей стороны мы можем сделать по-максимуму, чтобы фаза Луны оказалась нужной. Но не более.

О чем я? Как правило, NOFOLLOW-ссылки ставятся тогда, когда нет возможности поставить нормальную, по принципу "с паршивой овцы хоть шерсти клок", или "запас карман не тянет", кому как нравится. Чтобы склонить мнение Гугла к пункту А, нужно уделить внимание трем слагаемым: анкору ссылки, ее окружению (в особенности - TITLE страницы-донора) и содержанию страницы-акцептора. То есть, сделать эти три компонента релевантными по-максимуму. Это то, на что оптимизатор повлиять может.

Кроме этого, играют роль ДРУГИЕ ссылки, ведущие на страницу-акцептор. То есть, Гугол всегда сверяет: а как видят эту страницу пользователи? Как они ее называют в анкорах своих ссылок (предполагается, что ссылки ставят пользователи)? Лучший анкор - это тот, который похож на самые "сильные" внешние, но немного отличается - например, написанием (морфологией) или введением дополнительного слова. Если и это соблюдается - то можно считать, что мы сделали все возможное, чтобы ссылка с NOFOLLOW "стрельнула" максимально полезно.

AntonR:
... как по максимум правильно его оптимизировать на нужной странице, так и убрать вхождения на главной + сделать действительно правильную внутреннюю перелинковку.

Вот убирать вхождения на главной странице точно не стоит! Наша задача - продвигать сайты (и страницы) ВПЕРЕД, а не убивать их. Мешает попасть в ТОП не то, что главная слишком хороша, а то, что у конкурентов страницы сильнее.

Показать целевую страницу - задача на самом деле не такая уж и простая. Чтобы она решалась наверняка, я создаю ДВЕ и более целевых страниц. Во-первых, "в связке" они лучше продвигаются, а во-вторых, могут показаться одна под другой - есть такая фишечка у Гугла. При этом вероятность клика по одной из них выше.

Что же касается самой задачи - то она очень правильная. Лучший трафик - это тот, который идет непосредственно на целевые страницы.

Хорошо, что подобные темы, информационно-аналитической направленности, все же появляются в этом разделе. Согласитесь, это куда лучше, чем очередной вопрос "почему обвалится трафик?" и ему подобные.

Единственное, к чему бы хотел призвать - не употреблять модного на форуме слова "бред" и синонимов. Также не очень корректно требовать (просить) подтверждений в виде цитат: это все равно, что сказать "А вот принеси кусочек Солнца - тогда и померим, какая на нем температура".

Willie добавил 29.07.2010 в 22:17

Игорь ( Родной Портал):
Вот это больше похоже на правду. :)

Траф по каким запросам?
Гугл ру или буржунет?

Давайте посмотрим саму страницу и запрос? Я тут уже давно отучился верить на слово.

- Есть на Ваших страницах meta-description?

- Да, а как же!

- Контент уникальный?

- Еще бы!

- Заголовки title нормальные, информативные?

- Да, соответствуют.

После получения ссылки выясняется: description отсутствует вообще, "уникальный" контент находится на двух первых страницах выдачи Гугла, а заголовок - типа "О товаре".

webcat:
ЗЫ это не спот о ТЕРМИНАХ
Это принципиальная разница

Дэвушка... "внешней оптимизации" тоже не существует, это бредоносное понятие. Однако термин такой есть, и всем вроде понятно, о чем идет речь.

Так, может, и "сопли" оставить как термин? Три мифа - "сопли", "песок" и "бонус новичка", - породили неплохие, емкие термины, которые обозначают явление. Пусть же будут! Надо же это как-то называть?! :)

P.S. Я от всей души усмехаюсь, когда один и тот же человек пыжится доказать, что существует и "песок", и "бонус новичка". А что одно другому В КОРНЕ противоречит - это ему как-то наплевать; главное - погромче выкрикнуть.

Samovarov:
А внутренняя оптимизация и уникальное содержание не такую уж значительную роль для количество страниц в индексе играют.

Внутренняя оптимизация играет ПЕРВОСТЕПЕННУЮ роль в продвижении сайта в Гугле. И я Вам могу это легко доказать.

vpapazol:
Что еще можно сделать?

Почти наверняка она уже внутри Гугла. Просто он не знает, куда ее пристроить. Может до трех недель такое продолжаться.

Как только появится в кэше - посмотрите дату и время, когда она была схавана. Чтобы проверить сказанное.

NonexisT:
Хм, а тематику запроса гугл определяет?

Тематика запроса определяется на основании того, что лингвисты называют "корпус слов". Вы и сами легко это интуитивно поймете, решив не сложную задачку:

Разбейте следующие слова на две тематики, "коммерция" и "машиностроение":

- магазин

- купить

- подшипник

- товар

- агрегат

- инженер

- цена

Как правило, редко, какой сайт на 100% относится к определенному корпусу слов. Ведь тот же подшипник можно как "обточить на станке" (машиностроение), так и "купить в магазине" (коммерция). Гугол анализирует каких слов на сайта и в текстах внешних (и внутренних) анкоров больше. Исходя из этого относит его к категории:

- машиностроение - 50%

- коммерция - 48%

- цветоводство - 0%.

И чем больше тематических страниц - тем сильнее эта привязка к теме. Соответственно, если на таком сайте вдруг появляется статья "Выращивание нарциссов и период их вегетативного роста", то у нее крайне мало шансов показаться в выдаче хорошо, как бы идеально она не была написана. А вот на цветоводческом сайте она влетит в ТОП быстрее пули. Зато на "купительно-подшипниковом" статья "В каком магазине купить подшипник для станка?" будет иметь приоритет.

Как-то так примерно...

================

КАК Я ЭТО ПРОВЕРЯЛ НА ПРАКТИКЕ?

В подписи два сайта: про растения и про SEO, Про растения - бывший ТРАСТ, но я его забросил после нового года, как тема стала нелегальной. Про SEO - "детёныш", наполняется раз в неделю с нового года. И есть запрос "профессиональные копирайтеры". Когда статья стояла на растительном сайте, она показывалась на третьей...четвертой странице Гугла, хотя сам сайт куда авторитетнее! А вот с сайта про SEO этот же текст - в ТОП-1. Разница есть?

И это - НЕ единичный случай, это систематическое явление! Мне не составит труда хорошо показать в выдаче с сайта про растения статью про выращивание чего-нибудь, но будет крайне трудно сделать это с сайта про поисковую оптимизацию. Обратное также справедливо.

Это на тему, как Гугол узнает тематику сайтов, и как это влияет на позиции в СЕРПе.

webcat:
Есть не релевантное УГ.

"Ты, Зин, на грубость нарываешься,
И все обидеть норовишь.
Тут с сайтом так накувыркаешься,
Придешь на Сёрч - там ты сидишь".

Есть куча примеров, когда ОЧЕНЬ сильные страницы, никакое не УГ, не попадает в основной индекс. Поначалу. Со временем, как правило, они там прописываются, но это "время" может растягиваться недели на три, если не больше.

В основной же теме ты, конечно, права: основная нелюбовь Гугла - ОТВЕТНАЯ. То есть, он пришел в гости - а его таким "блюдом" накормили (статьи копипастные, страницы с прямым наплевательством ко всем его рекомендациям), что он больше и не хочет ходить. Но долг обязывает.

================

WebКошка,

я уже триста раз писал, что КАТЕГОРИЧЕСКИ ПРОТИВ споров о терминах. Какая разница, отдельная ли это таблица, пресловутый "дополнительный индекс", или же коэффициент пессимизации в общей таблице? Факт же налицо! Достаточно нарушить несколько рекомендаций Гугла - и страница окажется "ТАМ". То есть, пользы будет больше ее уничтожить, чем держать на сайте.

Как не оказаться ТАМ? Прочитать "Руководство Гугла для вебмастеров" - это необходимое, но еще не достаточное условие! Достаточное же - привести ВЕСЬ сайт в соответствие с этим руководством. "Плохой сайт состоит из плохих страниц, хороший - из хороших". Сделайте все страницы хорошими - и результат (трафик с Гугла) не заставит себя ждать.

SiteMap (XML) - конечно же, не панацея! Это своего рода ПРОСЬБА: "Уважаемый Гугол! Вот у меня тут странички кое-какие есть... не будете ли Вы столь любезны, если выпадет свободное время, зайти и взглянуть на них?"

Иное дело - ПИНГ. Если у сайта в основном индексе хотя бы половина страниц, и таких страниц больше сотни, то по пингу Гугол сам летит, сломя голову. Не успел ошибку в заголовке поправить - а страница уже ТАМ, и даже худо-бедно находится по поиску. Она еще ни в каком индексе - об этом речь можно вести, когда она образуется в кэше, - но есть же!

Если же сайт пребывает по большей части вне основного индекса, или у него очень малый уровень авторитета - то далеко не по каждому пингу Гугол бежит индексировать! Типа пинг послали - а он от него отмахнулся: "А, иди ты... опять каким-нибудь дерьмом накормить решил, да?!"

Есть и такое, что трафик дают и на "сопливые" страницы. Если ничего лучше в поиске у Гугла не находится. Например, по какому-нибудь запросу "кракозябры-зензелябры забубенистые". Попробуй, набери в Интернете релевантных страниц по такой теме! Вот и приходится Гуглу показывать статьи из своей помойки.

Всего: 1893