Links Forever

Links Forever
Рейтинг
329
Регистрация
20.08.2006
september:
Полюбил вас быстробот, бывает.
Обновления новыми материалами частое? У меня обычно так, когда 2-3 новости на сайте в день добавляются.
А вообще, лучше не сразу пачку страниц выкладывать, а настраивать авто обновление.

Вообще никаких обновлений, сайт специфический. Выложил разом и жду индексации. Кстати, после апа 9-ого из индекса только 10% выпало. Вот не пойму это быстроробот или уже основной индекс чистится от мусорных страниц.

Т.е. как после быстробота страницы не должны выпасть?

Заказывал вёрстку в HTML. Работа сделана за сутки, все пожелания учтены, на все вопросы получил ответ. Буду пользоваться услугами еще, рекомендую. Спасибо за работу!

lalartu:
пора перестать верить во всякую фигню которая работала несколько лет назад,

Что значит верить?! У меня под сотню доменов и только на одном такая фигня, на всех остальных так как я описал выше.

Tim-on:
вылетают если ПС в них не видит пользы, а если считает полезными то остаются (уник контента, нет переспама, нет чрезмерной накрутки веса других страниц ссылками по тексту, соответствие тематике общего контента и тп)

Хорошо, допустим, хотя я всегдна наблюдал такую картину. Быстроробот есть страницы, они попадают в индекс, потом их оттуда удаляют и на следующий ап они уже возвращаются на постоянку и сидят стабильно, плюс к ним еще добавляются новые страницы уже не быстроробота, а обычного индексатора.

Но тут новых нету!

lalartu:
зависит от сайта( статей и пр.) а не от твиттера, если нормально сделан- то яндекс индексирует без всяких ссылок за несколько часов, а если уг- то ничто не поможет

Ну начнем с того, что поддомен это отдельный домен для Яндекса и если его просто создать, залить контентом и оставить - даже если он офигенно нормально сделан, Яндекс его никогда не проиндексирует, ни за несколько часов, ни за несколько лет. На него надо заманить робота, как минимум. А если контент УГ он его просто выкинет. Вопрос не в этом. А в том, почему страницы съеденные быстророботом уже 2 недели в индексе, хотя должны были быть уже выкинуты и почему другие страницы обычным роботом не загнаны в индекс?

Вопрос в тему.

Я месяц назад создал для одного сайта поддомен, выложил туда статьи. Купил 5 ссылок с твиттера. Твиттер быстро зашел в индекс и уже второй ап в индексе Яндекса 5 страниц поддомена на которые были куплены ссылки. А новые страницы не входят. Как это понимать? Обычно быстророботные страницы проиндексированные с помощью твиттера на следующий ап вылетают из индекса, а тут второй ап висят и новых страниц не видно. Что делать?

Если кому интересно, то sitemap для нескольких sitemapов выглядит так:

<?xml version="1.0" encoding="UTF-8"?>

<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<sitemap>
<loc>http://site.ru/sitemap1.xml</loc>
<lastmod>2014-01-25T18:23:17+00:00</lastmod>
</sitemap>

<sitemap>
<loc>http://site.ru/sitemap2.xml</loc>
<lastmod>2014-01-25T18:23:17+00:00</lastmod>
</sitemap>
</sitemapindex>
se0master:
пару апов пройдет и получишь агс

Спасибо. Твое авторитетное мнение было так важно и так нужно, что бы я делал без него?!

Про сайтмап понял, вопрос снят, спасибо.

Если требуется передать несколько файлов Sitemap, необходимо перечислить каждый из этих файлов в файле индекса Sitemap. В файле индекса Sitemap может быть перечислено не более 50000 файлов Sitemap. Размер этого файла не должен превышать 10 МБ (10 485 760 байт) и может быть сжат. У вас может быть несколько файлов Sitemap. Формат XML-файла индекса Sitemap очень похож на формат XML-файла Sitemap.

Пруф

А что по поводу структуры посоветуете?

Всего: 2974