VHS-1980

VHS-1980
Рейтинг
91
Регистрация
21.05.2010
Varyag95:
Многое не только от сайта зависит, но и от самого поисковика. Трафик с помощью рекламы можно поднять. Кстати, мне не так давно их акция на почту пришла. Кладешь 1500 на рекламу, получаешь 3000. Можно почитать по этому поводу. Лишним не будет.

Оффтоп - а если болт положить на рекламу - что получишь? 😂

<img realsrc="/i/x.jpg" src="/i/pix.gif" alt="" />
function showVisible() {
var imgs = document.getElementsByTagName('img');
for(var i=0; i<imgs.length; i++) {

var img = imgs;

var realsrc = img.getAttribute('realsrc');
if (!realsrc) continue;

img.src = realsrc;

}
}

window.onload = showVisible;

надеюсь смысл будет понятен. Пример выдернут из постзагрузки картинок для тяжелых страниц и немного модифицирован.

Большая просьба - чтобы не разрушать мозги окружающим - попытайтесь формулировать свои вопросы более внятно. Если неполучается - формулируйте задачу.

Спасибо.

YuriDnepr:
Google не учитывает ПФ относительно какой-то идеальной величины (1), её нет. Google перед апдейтом (по-крайней мере раньше) сравнивает 2-3 сайта, прошедшие все предыдущие проверки, и заслуживающие, например, ТОП5. Сравнивает их между собой - у кого ПФ лучше, относительно других претендентов. Чаще всего, один из сравниваемых уже занимает ТОП5 (а может и всегда?). Потом всё устаканивается и победитель занимает ТОП5. Дальше начинаются опять плавные подвижки.

имхо.

То есть сначала берем ахулиард запросов, потом по каждому 2 сайта и сидим ждем статистики по ПФ, а потом что-то делаем? Схема, откровенно говоря, далека от идеальной, имхо.

эпик фейл прям...

Eugene111:
Нет, есть ещё другие варианты ответов. Как в той статье и в моем посте выше. Скорей всего речь как раз идет об автопингвине.
Касательно Вашего поста, мне не совсем понятно, зачем менять урлы, если все новые страницы автоматически уходят в сопли. В чем смысл создать тучу новых страниц?

Варианты ответов сводятся к тому, предпринимала ли команда по качеству поиска какие-то меры по сайту. Если да - то вывести можно. Если нет и жесточайший минус обусловлен автоматическим алгоритмом - то всякие отклонения ссылок и запросы на повторную проверку не приведут к улучшению ситуации.

Менять урлы и делать новые страницы нужно в некоторых случаях. Примеры можно найти в поиске по этой ветке - с пингвином от 28апреля2012 и постепенным восстановлением траффика на новых урлах с новым контентом без передачи ссылочного на новые страницы. Старые можно в принципе убрать, в случае если сайт только под Гугл и с яши нет траффика. Контент страниц должен явно претерпеть некие изменения. Это один из опробованных и подтвержденных вариантов частичного выхода из-под фильтра.

По поводу соплей - можно в личку пример?

---------- Добавлено 15.06.2013 в 16:35 ----------

sinj:
После отклонения 90% ссылок вернулось 10% трафика .
ОтВЕТА уже 2 месяца нет, видно уже забыли про саит.

Они не забыли... Карандашом на стикер и на монитор прилепили.

Можно в абсолютных величинах узнать о возврате траффика? + тематика + период, за который отмечается возврат траффика?

А вы подольше ждите... Глядишь они когда-нибудь изменят алгоритм под ваши сайты и наступит счастье...

Вам написали - был изменен алгоритм ранжирования. То есть вес параметра или совокупности параметров, которые давали вам 40 места был снижен, либо другие параметры, которые на ваших сайтах слабы стали более важными. Чего ждать? Анализируйте топ, анализируйте приподнявшихся с момента смены алгоритма, думайте наконец...

Rubicam:
Привет!
Кто-нить знает, поддерживает ли Гугл директивы host и crawl-delay?
В Вебмастере Гугла инфы не нашел.

В вебмастертулз Конфигурация - Настройки. Там по обеим директивам ответ.

Человек задал вопрос, хотя твердо решил убить свой контент на корню.

Уж если невмоготу - возьми одну статью и экспериментируй, отслеживая то, что станет с донором контента.

1 - Определитесь с версией "пингвина". Определяется симптомами и ответами по запросам на пересмотр. Исходя из результатов можно будет двигаться дальше.

2 - 301 редирект перенесет все со старого сайта, в том числе и пингвина.

После заявки на пересмотр приходит обычно следущее:

Вариант 1

Запрос на повторную проверку сайта http://******.ru/: меры, принятые командой по борьбе со спамом, отменены
15 мая 2013 г.

Уважаемый владелец или веб-мастер сайта http://******.ru/!

От владельца сайта http://*****.ru/ был получен запрос на повторную проверку данного сайта на предмет соответствия правилам, приведенным в руководстве Google для веб-мастеров.

Ранее команда по борьбе со спамом приняла меры в отношении Вашего сайта в связи с нарушениями рекомендаций Google по обеспечению качества. Получив Ваш запрос на повторную проверку, мы отменили эти меры. Обновление статуса сайта в системах индексирования и ранжирования может занять некоторое время.

На рейтинг сайта могли оказать влияние и другие факторы, не связанные с действиями команды по борьбе со спамом. Порядок отображения сайтов в результатах поиска Google определяется на основе ряда формул (также называемых "алгоритмами"). Каждый год мы вносим в них сотни изменений, чтобы повысить релевантность результатов поиска. При определении рейтинга страницы учитывается более 200 различных параметров. По мере изменения наших алгоритмов и самого Интернета (в том числе и Вашего сайта) рейтинг может меняться в ту или иную сторону. Если Ваш сайт по-прежнему имеет низкий рейтинг в результатах поиска, ознакомьтесь с данной статьей, чтобы выявить возможные проблемы и устранить ошибки.

Благодарим за помощь в поддержании высокого качества результатов поиска Google.

С уважением,

команда по повышению качества Поиска в Google

Вариант 2

Запрос на повторную проверку сайта http://******.ru/: команда по борьбе со спамом не предпринимала никаких мер в отношении этого сайта.
22 февраля 2013 г.

Уважаемый владелец или веб-мастер сайта http://*******.ru/!

От владельца сайта http://******.ru/ был получен запрос на повторную проверку данного сайта на предмет соответствия правилам, приведенным в руководстве Google для веб-мастеров.

Мы проверили Ваш сайт и обнаружили, что команда по борьбе со спамом не предпринимала никаких мер в отношении него. Понижение его рейтинга не связано с действиями этой команды, поэтому запрос на повторную проверку отправлять не нужно.

На рейтинг сайта могли оказать влияние и другие факторы. Порядок отображения сайтов в результатах поиска Google определяется на основе ряда формул (также называемых алгоритмами). Каждый год мы вносим в них сотни изменений, чтобы повысить релевантность результатов поиска. При определении рейтинга страницы учитывается более 200 различных параметров. По мере усовершенствования наших алгоритмов и самого Интернета (в том числе и Вашего сайта) рейтинг может меняться в ту или иную сторону.

Если рейтинг Вашего сайта изменился, но Вы считаете, что это связано не с изменением алгоритмов, обратите внимание на следующие вероятные причины. Возможно, сайт был существенно обновлен, изменена система управления контентом или архитектура сервера. Например, рейтинг может снизиться, если сервер закрыл доступ к страницам для робота Googlebot или если были изменены URL-адреса основной массы страниц. В данной статье перечислены другие вероятные причины снижения рейтинга сайта в результатах поиска.

Если проблему устранить не удается, обратитесь за поддержкой на справочный форум для веб-мастеров.

С уважением,

команда по повышению качества Поиска в Google

Ну есть еще третий вариант, где четко говориться о том, что меры неустранены.

В первом варианте - ручной фильтр.

Во втором - автопингвин.

Первый вариант - лечится.

Второй - по схеме в моем первом посте, но окончательно вылечить на данный момент невозможно.

Всего: 696