Мэтт говорит, что ещё чуть-чуть и вам всем хана.
Сегодня позиции после письма пришли в адское положение везде в допу улетел (((((((((
Солю на Каттса. Может он почувствует давление ?
Вы не упоминули до этого про раз в год и какие изменения точно были внесены, потому я подумал об самом популярном способе ( то, что делают многие для плохих целеи). Я ведь не робот, которыи может предположить то, что вы имели ввиду.
Это вы так думаете, но это вовсе не так. Фильтры бывают разные и вариаций очень много.
Пример. Как иногда люди пытаются обмануть ранжирование. Создают страницы с хорошей информацией выводят их в топ и в определенное время меняют Title (Допустим на секретутки из Сан-Франциско) и закрывают от робота и страница задерживается чуть дольше времени в поиске.
Теперь подумаете внимательно, а где вероятность того, что ваша смена была не заменой данных ,как это делают некоторые спаммеры ?
Вам либо повезло с теми страницами и они были действительно хороши, но в целом заменять Title - это не есть правильно.
Манипуляция была с целью резкого подъема и показа данных заинтересованному лицу + использовалась в некотором роде дыра.
Дыру исправили и все пришло на свои места такое часто бывает и опять же это был осознанный риск.---------- Post added 09-03-2013 at 00:14 ----------
А мне всегда необходимо писать с примерами ,как для студентов ? Я прочитал так внимательно ,как мог пока писал код, потому вы должны были понять из ранего предложения, что отправка запросов до всех источников не является ускорителем того, что вам нужно. Про Кэш вообще другои разговор и кто Вам сказал сменить Title ? (За это кстать еще один фильтр приходит)
Абсолютно верно + хорошии пример для закрепления Вашего понимания.
Пусть будет ресурс Y и у него много денег ,а именно столько ,чтобы купить только очень качественные ссылки с высоким параметром траста, но у ресурса Y нету контента только 1 страница (заглушка и некоторые параметры Title и описание страницы 200 символов).
Пусть даже будут закуплены очень грамотно ссылки и с текстом и другими параметрами, но ресурс Y не заимет стабильно топ ранжирования лишь по причинам того, что его персональная уникализация данных краине мала (точнее критична).
Это служит не только защитои от тех случаев, когда допустим кто-то захотел резко с кучеи денег взлететь в топ, но и протекциеи для тех ресурсов, которые работают давно и стараются набирать качественный контент.
Заблуждение многих, что G всегда заходит на все страницы и отправляет запрос к ним. Сам по себе он может не добраться до многих страниц ,т.к. они могут быть пессимизированы ,а в Вашем случаи они уже пессимизированы. Почему Google обязан тратить вычислительные мощности на сверку постоянно всех страниц ,если они были некачественные и имели низкие показатели уровня траста по отношению к анализу ранжирования ? Просто так ? Нет этого не происходит.
Вы даже можете заметить, что если скопировать откуда-нибудь статью и разместить у себя, то сначала она проиндексируется быстро, но потом после наложения фильтра о неуникальности данных она улетает и на нее редко приходят роботы ( реже,чем обычно в силу опять же ряда факторов).
Думаю, что ответил на вопрос понятным образом.
Работаю над выводом одного сайта. Все процедуры прохожу и проверяю сам лично. Удачных примеров не имею т.к. сайт не в таком запущеном состоянии, как у многих, но под фильтром из-за ряда ошибок в том числе из-за манипуляции с ранжированием.
Откуда знаю, как что устроено. Ответ - работал над поисковыми алгоритмами и буду работать.
После проведения действий со стороны вебмастера ,если он что-то изменял и работал над очисткой он отправляет запрос на пересмотр. что под этим подразумевается :
1) Что пользователь конечно виноват, но его сайт стал лучше и начал выполнять условия работы для индексирования/ранжирования (указано в работе поиска G) и если он не нарушает условия, то он будет автоматически снят с n числа фильтров (Позиции после окончательного анализа восстанавливаются до 2 месяцев)
2) Во время подачи пересмотра сайт заново пересчитывается определённое количество времени, потому ответ приходит всегда с задержкои. Это не значит, что это ручной труд.
Да ,вы можете ждать ,когда проидет цикл из нового переиндексирования вашего саита со всеми ссылками и источниками, но это заимет дольше времени.
Более верно сказать ,что Вы просто получите не тот результат ,который вы ожидаете.
Как пример можно написать хорошую статью (пусть от 500 символов) и указать фото (уникальное с alt описанием) и на эту статью занести 5 ссылок с спам источника с ссылкои (ключом секретутки бруклина), которые были под фильтрами, тем самым на странице с хорошеи статьеи будет занесен отрицательный эффект.
очень много вариаций всех воздействий и учитывается много вещей, включая тематичность, возраст ссылки, переходы с источника, время провождения и т.д. сотни факторов.
Это разные вещи, но алгоритмы работают от суммирующих факторов. Например Panda определяет процент уникализации за счет сравнения ,а другие алгоритмы вычисляют сами буферные зоны текста.
Связь между уникальным текстом и ссылкой очень большая.