jit

Рейтинг
118
Регистрация
21.10.2005
storea:
Рылся в выдаче Гугла и нашел сервис для проверки на вероятность получения пингвина penguinanalysis.com . Кто пробовал?

таких сервисов куча. LinkDetox, LinkRisk и тп. Они берут ссылочное и смотрят риски. Как показала моя правктика - имеют мало чего общего с настоящим пингвином.. В основном говорят "на вас ссылка с сайта, где 2 выкладывают варез!" (бред) или "один и тот же IP!" (тоже бред, если IP принадлежит CDN-сервису)

Этот конкретный не пробовал, но наверняка тоже фуфло. Все они основаны на слухах, как реально работает Пингвин никто не знает

warwar01:
Из под пингвина сможете выйти только в следующий запуск следующего пингвина.
Последние 3 апа пингвин происходит раз в 5-6 месяцев. Поэтому если думаете, что выйдете сразу, то я вас разочарую.

начиная с версии 2.0 пингвин перестал быть "апом" и теперь встроен в основной алгоритм. Теперь "апы" - это просто обновления алгоритма, но пингивинит он теперь постоянно.

Ripro:

Присылают сами в ответ на запрос о пересмотре

отправлал два запроса на пересмотр - никаких ссылок не прислали. Просто "все еще есть ссылки" и все.

kievrent:

- оба в ТОП,
- оба под Пингвина,
- один в ТОП, второй - Пингвин.

а причем тут Пингвин в топике о ручных санкциях? Пингвину на сайт было пофиг. Пережил 10 апдейтов, траффик только рос. Спамные ссылки спалил только ассесор - посмотрев на них глазами.

У меня есть англо-сайт постарше (миллионы естественных беков, домену 10 лет) - я там и сапу закупаю, и ссылки с ГС, и ггл, и прочий шлак - пофик. Никаких ручных санкций... А вот новый сайт, который благодаря удачному контенту и паре ссылок быстро полез в топ - СРАЗУ привлек внимание спам-команды.

Вывод: скорость поднятия в СЕРПе очень важна. Если двигать новый сайт - вначале только социалка + может пара каталогов. Ручные блог-комменты на тематических блогах. И прочий white-hat. И только через годик можно начинать аккуратно закупать ссылочное.

Ripro:
Вы ссылочное проверили? Или исходите из того, что ссылок именно 5? Проверьте сколько реально и какие.

Конечно проверил, и по ahrefs и по WMT и еще кучей тулзов. Ahrefs вообще говорит, что на сайт всего 13 ссылок. Какое это нафик "ссылочное". Это ерунда.

Наш буржесайт стоит нормально, позиции на месте. Но вот сапо-сайты, на которых мы закупались - повылетали из индекса. Не все, но ОЧЕНЬ много.

PS. Как же круто, что есть плагин винка который это отсекает!! Бац - и отправил в GBL всей толпой.

сообщение ТС в переводе на русский:

1) на траст не влияют ни PR, ни кол-во контента, ни возраст
2) чтобы продвинуть сайт я купил ссылки с трастовых сайтов

Скажите, как вы определяли "трастовые сайты", если ни PR, ни контент, ни возраст ни вообще ничего - не показатель?

Sower:
Как мне кажется, база продажных сайтов формируется в гугле в основном руками горе оптимизаторов, которые попадут под пингвина или ещё кого нибудь, и начинают строчить тикеты со всеми адресами где покупали ссылки. И сайты гасят, и никакого прощения не получают.

Вот в который раз вижу такое мнение, что, типа, "тупые сеошники палят биржи через disavow и портят жизнь другим сеошникам".

Знаете что? Мне похер на других сеошников. Если я отправил сайт в disavow - я, конечно же, уже никогда не куплю там ссылку. Поэтому мне плевать, попадет этот донор в черный список или нет.

И если есть хоть небольшой шанс, что пингвин или ручные санкции снимут благодаря disavow (а шанс есть, примеры выхода есть) - я буду включать в disavow ГС-доноры. Несмотря ни на что. Плевать мне, что я что-то там "спалил". Мой интерес важнее каких-то гипотез, что я, типа, навредил другим вебмастерам.

и что?!??

я спрашивал про использование УРЛА В КАЧЕСТВЕ АНКОРА, а не про использование ключевиков в УРЛе

---------- Добавлено 06.10.2013 в 15:16 ----------

Proofer:
jit, под это дело есть отдельный фильтр, но он направлен на борьбу с злоупотреблением ключей в домене, а не в урле.

Я не имел ввиду использование ключей в урле.

Я спрашивал про использование ключей в анкоре. Считается ли анкор "нейтральным" если в качесвте анкора юзается УРЛ, но с ключевиками? Не может ли пингвин (именно пингвин) за это наказать?

Sergio Maricone:

Закрыть в роботах - поставить запрет гуглу на индексацию страницы УЖЕ им проиндексированной, а не на выбросить ее из индекса.

Ващето в WMT на странице удаления УРЛ из индекса прямо так и написано "лучше закройте в robots.txt, чем тут"

Всего: 191