Тоже заметил такую тенденцию на разных сайтах, которые были под фильтром, осталось 404 страницы.
Ага очень похоже на то
sfront3-007.yandex.ru
Наверное третий датацентр, про открытие которого так замечательно рассказывалось
Ну методика вывода сайтов из всяких неприятностей типа фильтра "я последний", непота, бана уже более менее отработана, поэтому зачем сайтик то светить.
Через месячишко будет как новий, даже лучше :)
Просто удивляет сама ситуация, что Яндекс сам убивает уникальный контент. Потому что кроме указанных выше 2-х сайтов больше информации об этом продукте нет.
Вот тебе и простейший инструмент по расчистке топа от конкурентов, то во что никто не верил :)
ПС: г-ну Елистратову, я знаю что такое фильтр "я последний", и резкльтат его работы должен был бы выглядеть так: один из сайтов - тот что источник (по мнению поисковика) находится в топе, остальные получают санкции. А не то что оба улетают непонятно куда.
Есть еще один момент, домены info ранее стоили по 2 бакса штука, а в хороших местах и по 99 центов (может и еще круче места были, сам не встречал)
соответсвтвенно на них куча саттелитов и доров делалось и белых каталогов, которые после бана просто выкидывались (продлевать за 6 баксов на фиг если новый 2).
Так что есть очень большой риск купить забаненный ранее домен. Хотя они вроде как ранее добавлялись но не индексировались.
Фиг знает 😕
Когда пишете о глюках пишите какой сервер яндекса его обрабатывал
http://yandex.ru/cgi-bin/hostname
Как я сказал тема очень узкая поэтому достаточно проиндексироваться странице и она сразу в топ попадает.
За последние два дня кол-во проиндексированных страниц скакнуло до 131 и потом сразу до 150. Все запросы находятся пока в топе. Ясен пень что там где у сайтов есть пара тройка ссылок то сайт находится на 15-20 месте, но в остальных случаях топ1-топ3.
Страницы кстати в индексе с рандомного блока ссылок!
Траф пока 4 чела в день :) В принципе задача довести траф до 2К, пока что пропорция проиндексированных страниц к общему кол-ву страниц и кол-ву посетителей говорит о том что все идет по плану :)
Насчет Уровневости - сейчас список проиндексированных страниц выглядит строго по иерархии :) То есть идут сначала страницы разделов, потом только страницы товаров.
Я таки думаю что все таки уровневость он видит, по структуре ссылающихся страниц, все товары в разделе ссылаются на страницу раздела ну и соответсвенно эту структуру и отображает исходя из ПР каждой страницы.
Вот интересно если сделать разносквозняк - ну то есть с одного сайта с каждой страницы сослаться на другой сайт при этом текст ссылки сделать уникальным и ссылаться на разные страницы, гугл это правильно поймет?
Просто почему такую тему создал - когда дор по началу проиндексировался, было 31 страница, то потом вдруг резко их стало 17 и в то же день 12
Я подумал что страницы на которых бот не нашел старых ссылок с главной страницы, он попросту выкинул из индекса.
Цель дора вывести запросы по сверхНЧ. Поэтому как показали первые опыты достаточно только проиндексировать сайт чтобы он оказался в топе по интересующим запросам.
Давайте по пунктам:
Уровневость все таки видна, т.к. есть главное меню + такая вещь как навигатор (ну такая строка которая показывает где находитесь, т.е. главная->Раздел->Страница)
Эти вещи есть на всех страницах, я думаю по ним уве таки уровневость можо составить.
Сам контент страницы не меняется - он занесен в базу, и находится строго по этому УРЛУ - единственное что меняется это блок рандомных ссылок.
Трудность реализации статичного блока как правильно подмечено именно в том что она генерится скриптом на лету (из базы берется контент).
Подвязывать туда ссылки блоков это писать отдельный сервис, ну и накладные расходы по хранению ссылок будут велики.
Сам контент повторюсь не меняется. Кстати Сегодня днем полез смотреть статсу уже 93 страницы в индексе, и вот сейчас уже 123.
Блок рандомных ссылок стоит везде как дополнительный блок.
Основной контент представлен в виде трехуровнего каталога. Конечно же ссылки внутрь каталога статичны.
Рандомный блок сделан чтобы поисковик смог сразу попасть на третий, конечный уровень каталога.
Смущает только то что рандомные ссылки при повторном заходе робота меняются, старые пропадают (сами страницы конечно же не пропадают) ну то есть не заподозрит ли робот в этом плохое что-то?
Дор - белый. то что это дор видно только хорошему специалисту в этой теме. Поэтому для меня важна его быстрая индексация.
Рандомный блок реализовать проще чем статичный в данном случае. Дор реализован на цмс и генерируется из базы, а не кладется готовыми хтмл-страницами (если бы было так то вопросов бы не было).
Да че то попробовал на тестовом доре, было 30 страниц, вчера зашел 15, потом стало 12, сейчас 17