Sergio Maricone

Рейтинг
30
Регистрация
07.06.2012
slaviktorres:
Где же взять ПФ молодым сайтам?

Молодые сайты получают некий бонус, который держит их некторое время в топе, жаль что не по всем запросам. Вот в этот момент ПФ и начинает формироваться и считаться...

Но, ПФ вещь в себе и относительная... скорее является одним из сотен факторов, и я на него обращаю внимание только с точки зрения конвертации, юзабилити и правильной заточки трафика

angr:
а вы уверены, что региональные представители, знают, ну или хотя-бы компетентны в решении проблем, с сайтами ориентированными на юса рынок?

у меня юса... сняли российские "регионалы"... до этого слал все на англицком в юса гугль

1top1:
Вопрос. а если в кеше гугла не 1 - 100 страниц, а примерно 100 000 как очистить кеш?

Так и чистить. Избавлялся от Панды, руками пол года зачищал все в гугле, пока он все "забыл"...

Было 500К+ страниц... В WMT и ручками, или по маске или поштучно...

Все зависит от ресурса, тематики, организации страниц, и т.п.

А для снижения процента, если это не бот, а живой человек, можно повесить скрипты ГА по событиям, например:

- пробыл на странице больше 15 сек

- навел курсор на картинку

- запустил закачку

- развернул текст

- лайкнул

- проскролировал страницу вниз и т.п.

Ripro:
У меня на нескольких сильнопосещаемых порталах тысячи битых входящих ссылок насобиралось за несколько лет, просто люди так ставят, что поделать. Отрабатывается 404 или ставится редирект на существующую страницу - если сильно много идет по этой ссылке на сайт. И каким образом это генерит на сайте однотипные "нагенерированные" страницы? И что значит "не отдавать 404" - если речь как раз о 404? :)
Настройка 404 страницы - входит в элементарную оптимизацию сайта. Если начинать придумывать что было бы если бы у ТС не были настроены 404 - уже перебор :)

За несколько лет и за несколько дней - 2 большие разницы.

И если есть сайт с товарами, с не одной сотней тысяч страниц, на котором движок не все корректно отрабатывает, то это фантастика? Или то, что панда поклала миллионы сайтов по всему миру за 1-2 месяца, тоже я придумал?

Тут народ задает ясельные вопросы, а Вы про то, что куда-то входит... а это уже школьная программа. Причем, в эту программу обязательная отдача 404 вошло не давно, как раз после выхода наказания в виде Панды.

Уязвимости есть у всех сайтов и они разные, я написал про вероятность одной из них.

---------- Добавлено 05.12.2013 в 20:06 ----------

Ripro:
Настройка 404 страницы - входит в элементарную оптимизацию сайта. Если начинать придумывать что было бы если бы у ТС не были настроены 404 - уже перебор :)

Спасибо за минус к репутации :) Очень надеюсь, стало легче...

Ripro:
Извините, а Панда тут при чем? И как несколько страниц - часть которых реально когда-то на сайте были, а пара штук - появилась неслучайно, загонят сайт под Панду?
И отчего тут сайт просядет? Ну было когда-то несколько страниц, которых сейчас нет, и что?

Если сайт не будет отдавать 404, а некий свой контент, то вырастает число страниц на сайте, имеющие однотипный "нагенерированный" контент, со всеми вытекающими последствиями. И да, несколько новых 404 не загонят... а если на сайте всего 100 страниц, а внешних ссылок на несколько тыщ "битых" страниц и не отдавать 404, то выводы очевидны.

А просядет - вопрос к гуглу, я не афтор. Я написал, что согласно моему опыту - пока, видимо, Панда не пересчитает все битые входящие, не поймет что по ним корректно отдается 404 и т.п.

TC, тут может быть банальная попытка конкурентов, загнать сайт по Панду.

Нужно спокойно отдавать 404 и следить, чтоб не возникали дубли. Сайт может просесть на время, пока гугл не поймет, что этих страниц на сайте таки нет.

Все согласно моему опыту. Всякие случайные совпадения с реальными событиями или сайтами, являются только совпадениями.

---------- Добавлено 05.12.2013 в 18:40 ----------

Milash:
Я бы взял эти страницы и создал на сайте, если ссылочное стоит, что бы в 404 вес не уходил, или прописал 301 редирект на нужные страницы.

Замечательный способ загнать сайт под зверинец. Не известно откуда входящие, с какой кармой и т.п., а мы берем и 301 на нужные страницы сайта... этапять

d4k:
Тяните Аяксом. Я бы вообще не делал пагинацию если у вас там действительно не 100500 коментов.

Ajax гугль читает и с удовольствием...

ТС, я бы разбил на страницы и не заморачивался с тошнотой... тут как раз уникальность страницы растет. особенно для почти одинаковых товаров... если конечно все комменты не одинаковые... тогда их только модерировать

Мне б ваши проблемы... у меня комменты оч мало не пишет...

beginerx:
скорее всего по внешнему виду - большой текст и внутри почти посредине одна ссылка, искаженный порядок слов для статей, обычно японские часы, а не часы японские, на акцепторе нет слов японские часы и акцептор наверняка накупил аналогичнных ссылок (спалился как покупатель) - получилась заказная статья.

Похоже в центре большой статьи размешать ссылку теперь опасно, это стало красным маркером.

Если смотреть сайты типа iphones.ru и подобные там бывают внешние ссылки, они как правило в начале или в конце статьи...

Красный маркер - наличие ключа в анкоре... а где он, в середине, в начале или в конце статьи - дело 10ое

Очевидно, что уникальность и полезность и линковка играют свою роль. Но, согласном моему опыту, тут немного иная гипотеза рисуется:

- мой новый сайт гугль слопал за 10-12 дней ~20К страниц

- в соплях было все, кроме 2-3 страниц вместе со стартовой

- через время в основной индекс начал добавлять страницы, грубо, за 1 неделю добавил 200+ новых

Думаю ситуация следующая - сначала некий быстробот жрет контент не пережевывая, затем некий другой по аналогии с желудком сортирует его - что фтопку, а что внутрь организьма :)

Я бы на месте ТС не торопился бы, а подождал результатов переваривания немного дльше.

Всего: 288