nikki4

Рейтинг
277
Регистрация
19.09.2008

да дублей нет, все index.php в этой джумле закрыто в роботс

спустя пару дней, только что получил ответ:

Здравствуйте!

Проанализировав страницы Вашего сайта, наши алгоритмы приняли решение временно не включать его в поиск. На решение алгоритма может оказать влияние наличие страниц, предназначенных для робота-индексатора, а не для чтения пользователями, наличие SEO-ссылок, размещение неуникальной информации и другие факторы.

Наше понимание, чем качественный сайт отличается от некачественного, отражено в следующих документах:
http://help.yandex.ru/webmaster/?id=995342
http://webmaster.ya.ru/replies.xml?item_no=325&ncrnd=2022
http://company.yandex.ru/rules/optimization/index.xml

Данные санкции не накладываются навсегда. Продолжайте развивать и наполнять Ваш сайт уникальной и полезной информацией. При его развитии рекомендуем ориентироваться на пользователей, а не на поисковые машины.
Когда сайт по совокупности факторов станет достаточно качественным, его страницы смогут вернуться в поиск.

но я не могу понять что не так.

перечитал внимательно ссылки. мой сайт попадает под их опредление качественного. разве только что

Думайте о пользователях, а не поисковых системах. Стали бы вы создавать сайт, страницу или ее элемент, если бы не существовало поисковиков? Приходят ли пользователи на ваш сайт или интернет-магазин не только из поисковых систем?

я думаю сразу об обоих.

Например вместо того. чтоб выкладывать документ из 50-200 тысяч знаков, я их дроблю на кусочки по 2-10тыс и пишу часть 1, часть 2.. часть 3..

И приходят только из поисковых систем (собственно тема специфичная, да и открылся только недели 3 назад).

еще я дробил так же разделы на части - Март 2012 (с 01.03.12), Март 2012 (часть 2 с 15.03.12) и т.п. по 100 частей в каждом, так как слышал, что плохо индексирует, если будет много ссылок на 1 странице

вот еще этот пункт

Еще один способ искусственного продвижения своего ресурса в результатах поиска — это переоптимизация текстов. В этом случае в размещенный на странице текст стараются поместить как можно больше ключевых слов, чтобы страница занимала более высокие позиции в результатах поиска по этим словам.

может быть это попадает.. но я не делал ничего искусственного. это оффициальные документы. просто часто повторяются слова.. типа отдел такой-то делает то-то, отдел такой-то подчиняется тому-то, отдел такой-то создан тем-то.. и т.п.

что делать? писать это выше снова платонам? а дублировать прошлое сообщение нужно?

а отвечать снова задав вопрос в поддержку, или просто ответить на письмо?

к примеру на основе какого-нибудь документа разработан другой документ. Ну например есть типовой документ, а есть десяток документов уже конкретных, но в основе лежит то типовое. разница только в адресах, телефонах и номерах

а про ноиндекс..

это только часть. например большущий документ. на одном сайте приведено первые 10-15 тыс символов, а дальше предлагают зарегистрироваться и скачать файл полностью. а я первые 10-15 в ноуиндекс, а потом добавил 10-15к знаков без него.

странно.. никаких ошибок в вебмастере не указано.. (только 1 4хх 12 числа)

к утру попрежнему в индексе 0.. зато увеличилось кол-во загруженных до 1184. видимо значит действительно просто подождать..

только статьи в среднем по 2-3 тыс символов. но есть и по 800-1800, и по 5-20. правда все без картинок.

никаких ссылок и рекламы. посещаемость была по 30-50 человек в сутки...

а вот кстати про доступность... спасибо.. это мысль... этот хостинг регулярно подвисает переодически.. иногда висит по 1-2 минуты.. (пс тот что в подписи у меня он нормальный, это я про другой, просто чтоб сэкономить на тарифепользуюсь сразу 2..)

вообщем буду ждать... просто сайт про законы, и многие формулировки встречаются на других сайтах.. вот думал мож в этом дело.. или там верстка кривая.. просто копировал из ворда в дримвивер, удалял ссылки и вставлял на сайт.. в результате там старые теги используются.. некоторые таблицы поехали.. но это всеже не везде.. есть и нормальный качественный уник на 100%, какие-то редкие или совсем новые документы, которых вообще нет в инете (только если архив качать)

5-6 месяцев назад подал заявку в раздел

http://www.dmoz.org/World/Russian/Наука/Общественные_науки/Лингвистика/Языки/Естественные/Японский/

сайт хороший. уникальный сервис, так что должны принять. вот только за это время не только его, но вообще ни один сайт не появился в том разделе. как было 6 сайтов так и есть

как понимаю это из-за того, что нет редакторов раздела японского языка.. вычитал, что в таком случае вышестоящие проверяют..

но смотрю уровень выше - отсутствует редактор, еще выше - отсутствие.. даже в таком общем разделе как лингвистика отсутствует..это чтоже получается, надо ждать пока редактор общественных наук все посмотрит? а он там один еще как понимаю, так как очень мало сайтов в том общем разделе..

вот вопрос возник, а можно ли стать редактором японского раздела, одобрить пару сайтов (конечно же в первую очередь свой) а потом уйти?

пс: кажется не в ту тему спросил... в другой теме нашел инфу по этому вопросу

в правилах к участию есть пункт:

h Сайты, содержание которых не несет никакой полезной нагрузки для пользователя, сайты, созданные специально для продажи ссылок, а также все проекты качество и наполнение которых будет вызывать недоверие со стороны системы, к участию приниматься не будут!


особенно интересует это:
сайты, созданные специально для продажи ссылок

как это определяется - специально ли для продажи создается или нет?

нет я их писать не буду.

по работе есть доступ к регулярно-пополняему источнику уник контента. (сейчас правда временно отсутсвует, но если все будет нормально, то снова будет)

вот я регулярно, каждый день по 100-150 страниц добавляю на сайт. На каждую страничку уходит 2-5 минут (заголовок, описание, проверка уникальности (10-20% контента размещено и продолжает размещаться на спец. сайте, но в будущем я буду публиковать быстрее и больше, чем на том сайте), очистка кода и т.п

изначально возникла мысль создать сайт для сотрудников с которыми работаю. По их запросам достаю оттуда различный контент. Вот и возникла мысль разместить его на сайте, чтобы они сами могли в любое время смотреть. Но создавать сайт с 5-25 тысячами страниц, да и еще не обновляемых из-за нескольких сотрудников (+100-300 с поисковиков по НЧ) я конечно подумал бредовая идея... и тут возникла мысль, а что если нарастить параметры в биржу ссылок. так прикинул ~10-12 тыс ежемесячно.. правда начитался форумов и понял, что скорее всего реально получить лишь 2-3тыс в месяц.

но что-то все скептически относятся. типа ничего не выйдет и т.п. говорят что больше тыщи-две ссылок с 1 сайта никто покупать не будет.

вот мне интересно узнать мнение здешних людей. стоит ли такой сайт в сейп? или там мало раскупят и потому лучше в трастлинк или еще куда-то.. вот тут советовали совмещать.

просто чтоб со структурой определиться. типа УВ2, УВ3.. количество символов на которые разбивать и т.д.

есть ли лимит по общему количеству ссылок на сайте. Какой примерно % раскупаемости?

делаю сайт, который в будущем будет с 5 тыс. страницами по 1500-6000 символов уник контента не развлекательной тематики + подниму тиц до 10-40 + буду регулярно пополнять до 200-300 страниц в месяц

На одном форуме говорят, что скупят макс 200-500 ссылок (т.е. выйдет ~7% (как понимаю ~1500р в месяц). А на другом говорят, что на 100$ в месяц можно рассчитывать..

много пересмотрел форумов, но почти ничего не смог найти. Молчат все :)

и можно ли сейп совмещать с gogetlinks, rotapost и т.д. чтоб там продавать то, что не попало в сейп?

в одной лекции на ютьюбе по заработку на МФА ведущий говорил, что для одного из своего сайтов он применял такую случайную перелинковку с целью быстрой индексации страниц.

но для продвижения этих страниц уже лучше уже конечно системную перелинковку

в тему задам вопрос.

нормально ли будет, если дескрипшн дублирует тайтл?

например название статьи блаблабла часть 1 и в дескрипшене тоже самое

Всего: 714