lpcard

Рейтинг
112
Регистрация
15.01.2008

tatrus, Я в шоке. Вам человек не хамил и не грубил. А Вы в его адрес высказались довольно резко. У меня тоже, честно говоря, вызвало удивление резкое изменение условий аж в 3 раза.

Во-первых, тот факт, что Вы подали заявку в ГГЛ, ничего не гарантирует.

Во-вторых, когда примут - тогда и нужно принять менять цену. Подайте сейчас еще заявки в ЯК и в Дмоз, и поставьте блиц 2000 баксов.

В-третьих, ничего из вышеперечисленного не дает Вам права обзывать и оскорблять других участников форума.

Похоже, что самописный

Панель веб-мастера Гугл - Оптимизация - Удаление URL

Для контекста нужна высокая посещаемость и понимание правил размещения блоков.

Бюджет от нуля. Если сможете самостоятельно сделать и наполнить сайт, который будет иметь посещаемость в несколько тысяч хостов за день. Можно купить готовый сайт. Цена - 6-36 месяцев окупаемости. Зависит от многих факторов.

В файле css напишите .counts li {margin-bottom:5px;}

Проблема в том, что это еще один сайт про автомобили. Таких в инете миллионы. У Вас и так не плохая посещалка для данной тематики без продвижения.

Ранее там висел школо-сайт про экзамены, учебу и т.п. И все беки именно по этой теме. И беки эти постепенно отваливаются. Чтобы поднять пузо и посещалку - начинайте ссылочное продвижение. Составляйте СЯ, список стартпоинтов и т.д. Сделайте внутреннюю оптимизацию и перелинковку.

А то что домен дроп ни на что не влияет. Тем более после 8-ми месяцев.

В этом файле можно написать что угодно. Сайт покажите. Возможно, что это самопис.

Tima44, посмотрите историю запросов робота и логи сервера. Могло получиться так, что пока программер копался, сервер отдавал ошибку 5хх. Из-за этого страницы могли вылететь.

Ayavryk:
Вопрос не про индексацию, а про качество индексации/переиндексации. Если на сайте несколько десятков-сотен тысяч страниц и у всех кривой last modify - попадание новых страниц в индекс будет идти с такой же скоростью как если last modify правильный?

Судя по тому, что Яндекс пишет в помощи вебмастеру, то у робота есть определенный лимит на количество запросов к серверу в один приход. И это логично. Если бы робот пытался опросить все страницы за раз, а их, допустим, на сайте миллион, то сервер бы не выдержал. Да и роботу не резон, каждый раз переиндексировать полностью веб сайт. Куда логичнее послать сначала запрос о том, была ли страница изменена или нет(If-Modified-Since). Пришел ответ, что была - тогда забираем, не было изменений - не берем. Зачем просто так тащить лишние 50-100 кило. Но нужно отметить, что у большей части сайтов этот заголовок не настроен, или отдает неверный параметр. Например, у WordPress. Все страницы отдают текущее время. И сайты индексируются неплохо, и позиции могут быть хорошие. Поэтому, именно на seo-показатели и позиции, данный заголовок не оказывает влияния. А что касается скорости индексации/переиндексации, то данный заголовок актуален не просто для крупных сайтов, а для тех, где: 1) много страниц; 2) ежедневное и значительное обновление контента; 3) небольшое количество внешних ссылок; 4) непродуманная структура; 5) кривая перелинковка или ее отсутствие. Тогда новая страница может очень быстро уйти вглубь сайта и на нее не будет входящих ссылок, ни внешних, ни внутренних. И робот просто до нее может не добраться. В конечном итоге и она будет проиндексирована, но может пройти год. Я проводил такой эксперимент с заголовком на WP. Было несколько страниц, которые не индексировались 9-12 месяцев. Содержание от 2к збп, картинка, уникальность 100%. Т.е. причин для исключения не было. Просто они были глубоко и на них не вели какие-либо ссылки. После настройки заголовка last-modified, эти страницы попали в индекс через 2 апа. Таким образом, я считаю, что данный заголовок влияет на скорость индексации, но актуален не для всех сайтов. В любом случае, лучше перебдеть :)

А это уже на Ajax нужно реализовывать. Вряд ли самостоятельно сделаете. Ищите программера.

Всего: 778