YaanGle

YaanGle
Рейтинг
155
Регистрация
06.09.2011

В одной куче требования к админке/движку и к самому сайту, да и какой смысл в это топике - всё уже 100 раз обмусолено.

А что такое пейдж ранк, собственно ? Голосующая способность страницы, т.е. вероятность того, что человек перейдет с этого документа на другой. Не вижу никаких логических препятствий для передачи PR таким способом.

Shonni:
Noctes, сайт ТС в бан уйдет в таком случае 🤪 яндекс он все видит ;)

Ну и бред. Бан как в кс типо ?😂

Была ситуация, когда имелась выгрузка по проектам с сейпа (анкоры, урлы, айди и т.д.), сами ссылки все были сняты уже как неделю, мб чуть больше.

В итоге, удалось восстановить примерно 60-70 % снятых ссылок в сейпе (на самый крупный проект было около 1.5 к, вернулось лишь 1к ссылок). Восстановить по связи урл_донора->урл_акцептора удалось, только тексты анкоров перемешались (при таком количестве ссылок их нереально восстановить абсолютно аналогично).

В итоге была некоторая просадка, в основном по ВК, через пару месяцев удалось практически всё восстановить.

Дело было год назад, 5 сайтов.

hexacell:
...или привлек внимание асессора. Как вариант.

Пока убираю title, alt и стронги... Полностью переписывать 450k текста нет ни времени, ни желания.

😂😂😂

Ох уж эти всемогущие асессоры

shread:
Добрый день!
Подскажите, плиз. Ситуация следующая.

Есть сайт www.аааа.ru. Решили сменить домен на bbb.ru.
Выложил полную копию сайта www.аааа.ru на bbb.ru (заменил только логотип). В Host прописал и там и там Host: bbb.ru.
Прошло уже больше месяца, сайт bbb.ru до сих пор непроиндексирован. И не "склеен".

Написал Платонам, получил стандартный ответ:

"После анализа и классификации страниц Вашего сайта наши алгоритмы приняли решение ограничить его в поиске. Обратите внимание, не все страницы, известные поиску Яндекса, включены в индекс и ранжируются высоко. Их включение и позиция зависят от качества сайта и его контента. В случае, если сайт не соответствует нашему пониманию качественного сайта, он может быть ограничен в поиске."

Как я могу улучшать сайт дубль полный которого сидит в индексе? Если я начну выкладывать уникальный контент на сайт bbb.ru он же не склеится тогда? Я правильно понимаю?
Что делать дальше? Как их все таки склеить (домен www.аааа.ru скоро уйдет от меня)...

Интересно, что Вы писали Платону?

Вообще, склейка производится обычно редиректом 301.

А директива Host в роботсе не дает 100% гарантии, что именно это зеркало будет главным. Яндекс просто учтет Ваше пожелание.По крайней мере у них так написано.

brainiac:
Ну что опять за дебилизм? Я ж не Нижегородцев, чтобы утверждать, что этот фактор влияет больше других, а тот — не влияет вообще. Я про алгоритм, который ставит в ТОП откровенный ГС. И не исключено, что во многом благодаря «ссылкам на полезные, дополняющие материал, ресурсы». Вижу это в том числе на тестовых сайтах.

Вы для начала может уже объясните, почему это "откровенный ГС" ?

Пока похоже только на то, что вы несете откровенный бред :o

С чего вы взяли что он в топе за счет внутренних факторов ?

Химик78:
Америку не открою, но ИМХО так:

Смотрю на сайты в топе по запросу и анализирую их по схеме ниже.
Составляю таблицу:
сколько раз ключ в h1, h2, ..., в тексте, в стронге, в url, в alt, в description и т.д., какое количество слов на странице всего, считаю % вхождений в текст. Вывожу средние значения, которые беру за нормативы.
Как понимаю, страницы, у которых значения больше - улетели за переспам, у которых значения меньше недооптимизированы.
Кстати, средние отклонения тоже можно посчитать. Это будут допустимые отклонения от нормативов.
Сайты в топе, имеющие уж слишком большие отклонения от среднего, как правило, имеют какое-то особое ссылочное, хитрую линковку, особый траст и т.д.

После этого сравниваю продвигаемую страницу с нормативами.

1. Вопрос в сабже изначально поднимался другой

2. Ваш метод лишь на 1/n-ую можно назвать анализом конкурентов.

По сабжу:

Было бы действительно интересно найти методику определения отличий переспама контента на странице и переспама анкор-листа. Если предположить, что фильтр - это штрафные баллы к значению релевантности страницы-запросу, то по идее и спам анкор листа и и спам контента даст один результат. Но это имхо конечно, возможно бред :)

Если предположить, что фильтр срабатывает еще и за счет совокупности факторов (спам в контенте + анкор лист), помимо реакции на "чисто один фактор", то определение еще более усложняется.

Кстати, mr.Good, почему Вы решили, что переспам ссылочным дает смену релевантной ? Возможно смену релевантной дает и переспам в контенте, если есть страница, достаточно близкая по релевантности к рассматриваемой.

фильтр , насколько я понимаю, срабатывает при очередной индексации/переиндексации страницы ?

Также в интернет-статьях можно прочесть про фильтр "отключение ссылочного" (ниразу не встречал), также интересно, насколько эт правда)

sven:
мне кажется сапосайты как беки вообще молоинформативны... и само понятие вайтлист в сапе звучит странно..

Ну тк ведь суть не в этом, а в том что у товарища и на один и на другой сайт стоят УГ-сапоссылки, так почему один в топе а другой в ж ? вот вопрос)

От себя добавлю: сайты одинаковых тематик ? По структуре ?

TBAG:
Небольшой обзор: (исх анг. http://www.webpronews.com/google-will-soon-ignore-links-you-tell-it-to-2012-06 )


---------- Добавлено 22.08.2012 в 09:51 ----------

Интересно, что там за инструмент они предлагают!? Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!

как меня радует вывод: "По заявлению разработчиков, Пингвин направлен на улучшение поисковой выдачи. С этим нельзя не согласиться, потому что алгоритм в первую очередь борется со спамом."

О качестве алгоритма надо судить по результату, а не громким заявлениям разработчиков.

Не знаю, как в буржунете, но серпгуглраша полный отстой по коммерции сейчас.

или «посмотрите HTML на предмет случайных атрибутов Alt с ключевыми словами в них»

жесть 😂

Гоша запугал вебмастеров до усрачки, потихоньку превращая их в послушных рабов своих требований 🤣

Всего: 1049