Willie

Willie
Рейтинг
200
Регистрация
08.10.2008
Продвигаете ли сайты под Гугл Беларусь?
Lor:
... Гугл фактически зафильтровал больше половины Интернета, ...

О, ужас! Еще немного - и Интернет вообще перестанет существовать... вот же Гугол гадина, уже половину одолел. А с первого взгляда и не заметно.

i-arm:
... в коммерческой тематике все сайты УВАЖАЮЩИХ СЕБЯ И СВОИХ КЛИЕНТОВ КОМПАНИЙ покупают ссылки, значит он может всех их забанить))))

Ах, какая трагедия!

Вы, "продвигатели" за счет бабла клиентов, ничего не умеющие и ничего не знающие - вы начали сосать писю, да? А я давно говорил, что так оно и будет в итоге. Получите и распишитесь! Причмокивать не забывайте, представители наебизнеса...

Остальная патетика крайне дешевая. Вы потратили слишком много восклицательных знаков на нее.

DnB12:
Скажите пожалуйста как именно влияет внутренняя перелинковка страниц сайта на рейтинг в гугле по запросам?

Влияет, причем весьма сильно. Только за счет внутренней перелинковки страниц сайта можно вытащить кучу НЧ-запросов в ТОП.

GoodHex:
Сегодня заметил в google веб-мастер такую ошибку.
Повторяющиеся метаописания.Проанализировав все ошибки понял,что метаописания дублируются в архиве.Движок vbulletin.

Что делать?

Как старый Вобловод, скажу вам:

- "повторяющиеся метаописания" легко исправляются добавлением в конец некого числа. Оно может быть случайным, а может быть форматом времени. Требует минимального вмешательства программиста;

- полностью проблема ликвидируется прописыванием тега CANONICAL к каждой странице архива. Делается средней силы вмешательством программиста;

- в общем и целом Вобловский архив ранжируется лучше, чем основной вариант страниц. Потому, что там намного меньше мусора. Поэтому самое радикальное решение - запретить его;

- при всем этом вам придется решать проблему повторяющихся описаний и заголовков (см. п. 1).

Самые большие ошибки, которые вы можете совершить:

- смотреть на трастовые сайты ("у них так сделано - значит, и я повторю"). То, что позволено Юпитеру, не позволено быку;

- слушать советы типа "а я вообще мета-теги не использую" - понятно, что это из разряда "а я спрыгнул с десятого этажа и остался жив, вот только подтвердить этого не могу". Ради интереса: попросите показать "советчика" его сайты без DESCRIPTION, и убедитесь в том, что он попросту пиздобол, причем крайне дешёвый;

- еще одна ошибка начинающих вобловодов - формирование отдельных постов как самостоятельных страниц. Так делать нельзя! Вернее, можно, если ваш сайт пользуется полным и абсолютным доверием Гугла по своей тематике. Если не так - то это преждевременно и вредно.

katenuha:
Но почему гугл считает их недостойными главной выдачи, если почти под каждую страницу изначально был уникальный текст под 1000 знаков?

Вот какого ответа вы ждете? Не видя сайт, невозможно давать какие-либо рекомендации по вашему вопросу.

Platinum2000:
Закупаю для него ссылки в сеопульте: ссылки закупаю только по одному анкору - "бесплатное порно видео" + безанкорные ссылки. По данным лайвинтернета, мой сайт чаще всего находят по таким запросам: "sex porno" и "sex porno video", но не по тому анкору , по которому я свой сайт продвигаю.

Вот только что написал в другой теме про фильтр на отдельный запрос: /ru/forum/comment/12001022

Sower:
На отдельные страницы может не только фильтр накладываться, а и полное исключение их из результатов поиска.

Верно! И более того: фильтр накладывается и на отдельный запрос. К примеру, "розовые слоны" (если наложена пессимизация на такой запрос) можно днем с огнем не найти в выдаче, а вот "животные с хоботом" могут занимать ТОП вполне нормально.

Пингвин примерно так и работает: вышибает из поиска преимущественно то, что усиленно продвигали ссылками. Есть в тексте слово или фраза из зафильтрованных - получи "-1" в репу страницы. Но если таких слов нет - то все нормально.

Когда же число таких пессимизированных страниц становится в процентном отношении велико (а, как правило, так и бывает, ибо сайты раскручивают по "самым-самым" ключевикам, которые встречаются везде в контенте), перестают работать даже НЧ, где про "розовых слонов" нет ни слова.

fagot_seo:
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

И правильно сделал, не находите?

Открывать/закрывать надо НЕ в роботсе, а таким образом, чтобы они были вообще недоступны.

Nina:
Я - пользователь, таких как я миллиарды. Миллиарды должны быть довольны. Объясните почему хотелка миллиардов стоит меньше чем амбиции пары работников гугла? Клиент всегда прав. Если клиент не прав, смотрите пункт первый.

Если так называемые "миллиарды" используют Гугол в качестве основной поисковой системы (кстати, я именно так и делаю) - значит, они довольны. Иначе бы ушли в Бинг, Яху, или куда-нибудь еще, чтобы удовлетворить свои "хотелки".

Ваша логика напоминает мне высказывания недоучившихся студентов в начале 90-х, которые называли Windows "мастдаем", упивались выявлением разных глюков, предрекали скорую кончину и всячески превозносили преимущества OS/2. Помните такую операционную систему? Думаю, что нет. Так вот: "мастдай" живет и процветает и ныне, "миллиарды" им пользуются, а "полуось" сдохла так скромно, что никто и не заметил ее смерти.

Также и с Гуглом: можно долго рассуждать, какой же неправильный у него поиск и т.п., но факт остается фактом.

Кстати, какие лично у вас "хотелки" относительно поиска в Гугле? Мои примерно такие: чтобы я находил сайты на первой странице, содержащие полезную мне информацию, а не искусственно продвинутые туда героическими усилиями оптимизаторов. И Гугол, борясь с SEO, делает мне лучше как пользователю. Но хуже, как веб-мастеру.

Всего: 1890