стал невольным участником экперимента с наращиванием ссылочного

A
На сайте с 10.11.2006
Offline
6
1102

в четверг были проставленны ссылки блоком из 20 шт на главных с сетке из 80 сайтов, в пятницу, т.е. сегодня обнаружил что из 20 сайтов на которые проставлялись ссылки в индексе ни одного ( до сего момента были), а из 80 сайтов те что были в зоне ру тоже исчезли из базы яндекса (50 шт) остались в базе только в зоне .инфо и зоне .сом (30 шт) из чего напрашивается вывод : существует некий автоматический фильтр, который это все и устроил.

еще факты: на 81 сайте этот блок ссылок не поставил, просто так, не хотел, он в индексе остался.

Почему не исчезли другие 30 шт сайтов в дешевой зоне? На них стоял тот же самый блок из 20 ссылок. Предполагаю что робот яндекса просто туда зайти не успел. поскольку штормило его свего на 68%.

Что предпринял: снял блок ссылок с 50 сайтов в зоне ру, на 30 других снизил колличество до 9 шт.

Написал письмо Платону про один из выпавших 20 сайтов, пока не ответил.

Поставил на один из 50 сайтов жирную сылку с главной каталожного сайта.

Жду следующего АПа

A
На сайте с 10.11.2006
Offline
6
#1

есть подвижки в ситуации на мои просьбы разобраться наконец Платон ответил по поводу одного из 20 сайтов которые выпадали после АПа

цитирую

"Сейчас сайт стоит в очереди на индексирование. По мере обхода робота он будет

проиндексирован и станет доступным для поиска.

Проверьте по логам, что отвечал сервер поисковому роботу в момент

переиндексации, после которой страницы выпали из поиска или были

проигнорированы. Возможно, они были недоступны или сервер отвечал в

HTTP-заголовке не верным кодом. Или информация, сообщаемая сервером в

HTTP-заголовке, отличается от реальной (например, не соответствует размер,

указанный в заголовке с реальным размером страницы).

Так же проверьте сами страницы. Некоторые страницы с Вашего сайта считаются

дубликатами и поэтому отсутствуют в результатах поиска. Яндекс не индексирует

дубликаты. Могу посоветовать Вам изменить код этих страниц так, чтобы

выделить их для робота, то есть оставить для индексирования только уникальный,

неповторяющийся контент. Сделать это можно при помощи тегов

<noindex></noindex> - поместите в них те части кода (текстового содержания,

например, меню, заголовки и т.п.), которые одинаковы для всех похожих страниц

сайта."

Из чего можно сделать вывод -сами не знаем, или знаем но вам не скажем, а если и есть какой то фильтр на ссылки с главных то вам не скажем

A
На сайте с 10.11.2006
Offline
6
#2

есть подвижки, появились первые сайты которые были добавлены в адурелку сразу после выпадения и возвращаются сайты в зоне ру, понемного ,жирная ссылка не помогает, сами появляются

Numb
На сайте с 14.01.2007
Offline
87
#3

Подождите немного. Если есть какие то движения, значит скоро будет всё ок :)

F
На сайте с 18.01.2007
Offline
109
#4
ambis:
есть подвижки в ситуации на мои просьбы разобраться наконец Платон ответил по поводу одного из 20 сайтов которые выпадали после АПа
цитирую

А не подскажете через какое время ответил, с какой периодичностью терзали и ответил он на запрос из формы или на мыло?

N
На сайте с 18.05.2003
Offline
100
#5
ambis:
Так же проверьте сами страницы. Некоторые страницы с Вашего сайта считаются
дубликатами и поэтому отсутствуют в результатах поиска. Яндекс не индексирует
дубликаты. Могу посоветовать Вам изменить код этих страниц так, чтобы
выделить их для робота, то есть оставить для индексирования только уникальный,
неповторяющийся контент. Сделать это можно при помощи тегов
<noindex></noindex> - поместите в них те части кода (текстового содержания,
например, меню, заголовки и т.п.), которые одинаковы для всех похожих страниц
сайта."

Фраза очень интересная. И при определенном раскладе объясняющая некоторые мои наблюдения.

Дабы понять расклад, подскажите, а контент на сайтах что из себя представлял? Реальные дубли или был уникальным?

D
На сайте с 05.11.2004
Offline
93
#6
ambis:
в четверг были проставленны ссылки блоком из 20 шт на главных с сетке из 80 сайтов, в пятницу, т.е. сегодня обнаружил что из 20 сайтов на которые проставлялись ссылки в индексе ни одного ( до сего момента были), а из 80 сайтов те что были в зоне ру тоже исчезли из базы яндекса (50 шт) остались в базе только в зоне .инфо и зоне .сом (30 шт) из чего напрашивается вывод : существует некий автоматический фильтр, который это все и устроил.

Если я правильно понял, то робот Яндекса наткнулся на часть сетки из 80 сайтов, забанил ее. После этого перешел по ссылкам и забанил те сайты, на которые вели ссылки с сетки?

У меня похожая ситуация и понять ее я могу только через такой алгоритм.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий