add13

Рейтинг
64
Регистрация
20.01.2007

очень жиденько, очень. них не проиндексировал, беки +1! яша завядает с каждым апом всё больше и больше. имхо

зы: ну или не ап это вовсе

есть какой-то определённый срок реакции гугля на исправления. в смысле через сколько можно ожидать снятие фильтра после устранения причин? интересуют случаи, когда фильтр наложен за внутренний контент (фозможно неуникальный, возможно за продажу ссылок)

яша с каждым последним апом индексирует всё меньше и меньше страниц (а становится их всё больше и больше на сайте). парадокс ск. или просто хилость яндекса

наказание в виде фильтра для страниц с ссылками в футере - это интересно и вполне может быть судя по моему случаю. т.к. ссылки на мой сайт не такие уж и плохие в сравнение с "- 300 ссылок с одинаковым текстом ссылки - ссылки с 20 сайтов, в том числе сквозняки с одного ip", просто масса ссылок с форумов и каментов с похожими текстами. Но гугль их даже не видит так что думаю пох ему просто на них и не накладыват за это фильтры (ИМХО). вообще прошёлся по бекам сайтов из топа по запросу по которому меня отбросило с 1-го места на 10-ю страницу - МАРАЗМ на 1-й странице вселенский, сайты с 1-1, 2-мя ссылками.

Общем мораль такова: гугль очевидно таки колбасит, так что фильтр это али нет пади знай, но всё же попробую перестроить блоки ссылок в футере а если не поможет временно убрать их дабы исследовать вероятное поведение фильтра за это дело.

по поводу "чего-то не хватает": вот в моём случае ссылочная база только наращивается, действительно не самые "вызывающие доверие" домены и не морды (в большинстве, хотя пару десятков морд есть тоже), но она увеличивается, т.е. как мне кажется в таком случае фильтр за то что не хватает хороших ссылок был бы изначально, а он случился первый раз через 11 месяцев после первой индексации сайта гуглем. а вот за избыток "подозрительных" ссылок - это предположение мне кажется имеет место быть. т.е. ссылки то вполне нормальные (четверть из них вообще естественные!), но они в оснвном из всяких форумов и каментов. а зная как гугль любит переумничать - возможно фильтр действительно за большой процент однотипных и не очень вызывающих доверие ссылок.

что ж буду наращивать морально-устойчивых ссылок, в любом случае эт не повредит

я тут вот что подумал: фильтры эти наверняка (99,9% а больше дать не могу т.к. никто ничего точно знать не может) автоматически накладываются и снимаются. т.е. проста работа алгоритма так устроена. в этом можно наверняка найти какой-то позитив - а именно делать что-то и т.о.. влиять (пытаться влиять) на алгоритм чтоб фильтр был снят. вот в моём случае есть у меня надежды что фильтр за суточный даун сервера пришёл. уже переехал на новый мощный сервак, где даунов нет пока вообще, подожду ещо несколько недель. если фильтр не снимется, значит дело не в этом. буду менять тексты сайта (есть небольшой процент скопированных текстов), буду думать как нидь куда-нидь ешо, не знаю пока как. просто мысль такая - робот он же ж не человек, ему писать не надо а потом томиться в ожидании ответов как от платона к примеру. что-то надо делать менять, откатывать кааки-нидь подозрительные изменения назад и т.д.

вобщем это были просто мысль всух, но может кто и поддержит

orphelin:
во-первых, сайт у меня лично долго грузится. а скачки кол-ва страниц возможно изза то го что страницы межну собой очень похожи. да и к тому же к примеру такая страница наугад попалась http://mobile-city.kharkov.ua/ax1_bx0_dx5_idx174_typex3.htm
кому она нужна? описание есть? - нет. отзывы есть? - нет. даже фото только одно. т.е. по сути три одинаковых страницы на один товар.

есть часть правды во всех этих замечаниях, и сам задумывался на предмет и скорости загрузки и отсутствия описания и отзывов. НО скорость загрузки постепенно уменьшается (оптимизирую скрипты и работу mysql), количество отсутствующих описаний на сегодня менее 30% и постепенно придёт к 1-2% (а значит и страницы все разные), и всё это происходит постепенно с довольно стабильной динамикой и в одну сторону, а яша пляшет каждый ап туда сюда на 10 - 20 тыщ страниц! поэтому я лично эти причины не считаю.

а т.к. прошло уже 3,5 недели то дело не в серваке или не только в нём? я правильно понимаю или же 3,5 недели не срок стоит подождать ещё? если и через месяц фильтр не снимется что вообще делать? я так понимаю если где-то как-то насолил гуглу по-чёрному то можно исправить а если сайт как сайт, белый и контент на 90% уникальный и ссылки нормальные, ЧТО ДЕЛАТЬ?

неужели меня одного так колбасит по количеству индексированных страниц каждый ап? есть ли ещё возмущённые и желающие разобраться в причинах влияющих на количество страниц в индексе?

Fot:
Урл сайта можно.

И на сайте используется уникальный контент?

http://mobile-city.kharkov.ua

страниц со 100% уникальным контентом 98%.

2% неуникальных - это собственно некоторые перепечатанные новости и статьи, и их индексация меня собственно не сильно то и волнует.

имхо дело не в уникальности (утверждаю так по той причине что неуникальных позаимствованных текстов на сайте крайне мало + были и есть всегда в одинаковых количествах, а количетсво проиндексированных страниц скачет как бешенное)

Всего: 81