ZoomY

ZoomY
Рейтинг
165
Регистрация
07.11.2008
Должность
SEO

Может быть фильтр... Пессимизация... Да мало ли что?

По одним цифрам не скажешь.

Что делалось с сайтом, как, когда?

Мы же не ясновидящие.

Очевидно, что Гугл стал хуже к вам относиться. Осталось выяснить причину.

Да, и позиции как у вас?

Web-Aleksey:
Написал возможно потому что, есть несколько простых сайтов-визиток на которые ссылается всего один сайт с одной страницы, которая не имеет никаких показателей. И эти сайты в которых по 10-12 страниц до сих пор лежат в индексе гугла и все норм. Насчет инфы на сайте - то статьи и прочее описание пишутся людьми, большинство даже из которых занимаются тематикой сайта.

Сам продвижением сайтов никогда не занимался - занимаюсь разработкой.

Попадание в индекс и возврат в индекс это разные вещи, имейте ввиду.

Новый сайт скушается легко. Если потом Гугл примет решение об исключении, повторно попасть в индекс сложнее.

Garedzhi:
И я 2 вопроса добавлю.
1. А по статейному продвижению, типа миралинкса, у буржуев есть нормальные сервисы, никто не сталкивался?
2. Или форум буржуйский, типа серча, может кто знает, чтобы напрямую дешевле приобретать.

Основной буржуйский форум —*http://forums.digitalpoint.com/

Там же можно найти публикации статей и покупку ссылок напрямую.

Широко распространена покупка на 3/6/12 месяцев, либо постоянные ссылки.

alger:
Давайте жить дружно.

Про бота - это первое, что приходит в голову. Самый простой способ забанить большинство сайтов, покупающие и продающие ссылки в SAPE. Самый надежный. Google ведь борится с "нечестными" методами оптимизации, вплоть до ручного рассмотрения писем стукачей. Что стоит создать такого бота и собрать базу "серых" сайтов.

Гугл не против покупных ссылок как таковых. Далее обсуждать регистрацию бота в Сапе не вижу смысла.

alger:
Давно вы работаете в Google? Если употребляете утвердительные выражения, пишите "на мой взгляд это - бред" или "я считаю, что это бред". Не надо обобщать, у вас нет доказательств.

Далее по теме, многие на форуме заметили обнуление и пессимизацию PR. Ваше "может по текущей постановок ссылок он утек" по крайней мере, неуместно!


Я что, написал, что проставил некачественные ссылки? И опять же, как давно вы работаете в Google? Слишком много необоснованных (не доказанных) утверждений.

Мдээ. ТС, вам — на официальный блог Гугла, там одни только доказанные утверждения.

Что на форуме сидеть, читать утвердительные необоснованные выражения непонятно кого? 🚬

И опять же, как давно вы работаете в Google?

Я делюсь с вами опытом и знаниями, а вы тут в циника играетесь. Думайте значит сами.

dar12:
ZoomY, А сколько ссылок нужно примерно ( 1-2-3-10-100-1000-10000 ) ? Хотя бы примерный диапазон чтобы вернуть в индекс ...

Присутствие в индексе обусловливается рядом факторов, не только ссылкой.

Сайт может проиндексироваться и без единой ссылки.

Если он вылетел из индекса, то надо устранить причину, по которой он улетел, а потом возвращать в индекс.

Бкхм. И у меня были успешные продвижения сайтов под какой-то регион при другом сервере. В частности, Штатов под .co.uk. И не только.

Но из более чем трёхлетнего опыта скажу: физическое местоположение сервера важно, равно как и важно местоположение пользователя, вбивающего со своего айпишника запрос.

Мнения выше что "пофиг", имхо, обусловлены отсутствием опыта либо неверными выводами.

Web-Aleksey:
ZoomY: возможно ты и прав - так и сделаю.

Noize: Ситуация такая. БД для пользователей я использую PhpBB. А у этого форума есть такая группа пользователей как поисковые боты. Но как я понял потом они хранятся не в одной таблице - а в нескольких. И видимо данные в этих таблицах не совпадали(плохо сделал импорт). Получается гугл бот находил себя в пользователях - пытался авторизоваться как бот, но не получалось и поэтому была ошибка.

"Возможно", это когда есть все причины для индексирования, но индексации нет. И я выдвигаю гипотезу.

А здесь - нету одной из основных причин для индексации: какого бы то ни было веса сайта.

Конечно, если у вас копипащенный контент и корявая структура, то индексировать вас не будут и после набирания некоторой ссылочной массы. Но поскольку вы задали вопрос, то я предполагаю что вы предварительно сделали поиск по форуму и нашли решения возможных проблем, которые тут не раз обсуждались ежели Гугл не хочет кушать сайт. А потом уже спросили.

Да, имейте ввиду: здесь принято общаться на "вы". Будете тыкать - могут неправильно понять.

alger:
Хотелось бы разобраться как именно Google определяет, продает ли ваш сайт ссылки или нет. На форуме как-то велись разговоры о дополнительных параметрах в URL динамических страниц, которые приводят к тому, что саповские объявления не отображаются, а контент страницы (за исключением счсылок) одинаковый. Но логов работы WEB сервера, который бы фиксировал такие обращения никто не предоставил.

Рассматривается ли Google-ом только скорость наращивания ссылочной массы (исходящей ит входящей) или есть что-то еще?

Как вариант могу предположить, что Google-бот регестрируется в Sape, отправляет заявки на покупку ссылок и принимает заявки на размещение. Если сайт вебмастера или оптимизатора таким образом палится, то его отправляют в пессимизацию. Чисто технически это возможно. Основных бирж ссылок в РУнете не так уж и много. Для каждой написать свой бот для корпорации Google не проблема.

Про регистрацию бота в Сапе - откровенный бред, забудьте.

По сабжу - при некотором кол-ве исходящих ссылок, ПР туда "перетекает" и уменьшается у вас.

Так что не факт что он "обнулился" - может при текущей схеме простановок ссылок он утёк дальше.

Далее. Гугл придаёт крайне большое значение тому, на кого вы ссылаетесь, поэтому несколькими некачественными ссылками со своего сайта можно нанести больший вред, нежели внешними ссылками на ваш сайт. Поэтому если вы не отслеживаете, кто там у вас через Сапу покупает ссылки, прямая вам дорога к пессимизации и обнулению ПР.

Гугл ходит на ваш сайт. Сайт недоступен - Гугл расстроился.

Сайт снова доступен - Гугл насторожен: а вдруг снова пропадёт?

Так что моментального восстановления после доступности сайта не ждите.

Всего: 3192