web2master

web2master
Rating
33
Registration
13.06.2012
Position
рикша

Яндекс держит слово и АГСные сайты возвращает в индекс. В любом случае от сайта больше пользы когда страницы в индексе чем когда их ноль.

В этот раз ещё больше вернул.

Чтобы не происходило, "возвращённые" сайты буду использовать под статьи с cсылками.

Никаких sape чтобы снова не потерять индекс. Например: на сайте #62 на момент бана было размещено 2500 вн.ссылок. Однако в тот момент в индексе было 60000 страниц. С другой стороны этот сайт окупил и себя и многое другое, так что жаловать на Яндекс глупо. Он его терпел 3 года вместе со всеми этими ссылками. Насколько я помню, за 3 года в sape, сайт около 270 тыщ принёс. Примерно: 7500 в месяц. Эх, где все эти деньги сейчас))))

sear4er:
Да чего надеяться и так понятно что будет откат

Не будет отката!

«Яндекс» объявит амнистию сайтам для поисковой оптимизации

Прочти http://lenta.ru/news/2014/04/15/yandex/

По клиентским (белым) проектам вернулось в норму. После нескольких месяцев затишься, снова стали индексироваться, а то застыли на одном месте и ни в какую. Поддерживаю мнение, что этот апдейт больше интересен тем что много вернулось из-под фильтров. У меня лично много! и на этом открою бутылочку!!!! По поводу что делалось? на большинстве доменов сменилось и движок и контент. Стал по 1-3 в день размещать уникальные статьи. На тех где много вернулось (на скрине видно) не делалось ничего, то что было, то и вернулось.

P.S. думаю это не надолго, но всё равно приятно.

На вышедших сайтах буду потихоньку свои ссылки на свои белые проекты размещать.

несколько сайтов вернулись после 3-х месячного забвения. ничего не делал с ними, не писал платонам, просто не трогал и всё.

Самописный анализ на пхп

потихоньку всё возвращается на круги своя...

P.S. Самописный анализ на ПХП

по поводу письма от яндекса!

171843663, по поводу самописного анализа. Всё просто, создаёшь список доменов столбиком в текстовом файле. например: sites.txt создаёшь папку yandex, пишешь скрипт (parser.php) типа: листаешь список доменов из текстового файла и по каждому обращаешься к яндексу xml получаешь ответ. регулярными выражениями из ответа выбираешь количество страниц проиндексированных или ноль (если не проиндексирован). Полученную информацию записываешься в папку yandex в текстовый файл типа 14.08.2013.txt (в соответствии с днём проверки) строки в формате site.ru|123 Скрипт запускаешь после того как пришло письмо в ЯВМ об апдейте, а лучше через сутки, когда все успокоятся дёргать яндекс. В срипте ставишь паузу на обращение к Яндексу, секунд 10-20 чтобы не забанил IP. После окончания проверки всех доменов пишешь скрипт (analiz.php) который выбирает все текстовые файлы в папке yandex по мере возрастания, и по списку доменов из текстового файла sites.txt рег.выражениями выбираешь по датам количество страниц, путём простой арифметики вычисляешь в плюс страницы или в минус в сравнении с прошлой проверкой, ставишь стрелочки и подсвечиваешь цветом. вот так всё просто...

уже третий апдейт Яндекс радует, хотя есть и минуса, 2 домена вылетели в ноль, но это по моей вине (неверно кеширование настроил, 0 кб отдавал Яше, о чём он мне в ЯВМ торжественно объявил). Синим отмечены сайты которые в САПЕ...

P.S. самописный анализ на php

не согласен по поводу покупных ссылок и санкций от Яндекс

вот пример (синим отмечены сайты в сапе по 3 ссылки на странице):

P.S. самописный анализ на php

Total: 311