tatrus, Я в шоке. Вам человек не хамил и не грубил. А Вы в его адрес высказались довольно резко. У меня тоже, честно говоря, вызвало удивление резкое изменение условий аж в 3 раза.
Во-первых, тот факт, что Вы подали заявку в ГГЛ, ничего не гарантирует.
Во-вторых, когда примут - тогда и нужно принять менять цену. Подайте сейчас еще заявки в ЯК и в Дмоз, и поставьте блиц 2000 баксов.
В-третьих, ничего из вышеперечисленного не дает Вам права обзывать и оскорблять других участников форума.
Похоже, что самописный
Панель веб-мастера Гугл - Оптимизация - Удаление URL
Для контекста нужна высокая посещаемость и понимание правил размещения блоков.
Бюджет от нуля. Если сможете самостоятельно сделать и наполнить сайт, который будет иметь посещаемость в несколько тысяч хостов за день. Можно купить готовый сайт. Цена - 6-36 месяцев окупаемости. Зависит от многих факторов.
В файле css напишите .counts li {margin-bottom:5px;}
Проблема в том, что это еще один сайт про автомобили. Таких в инете миллионы. У Вас и так не плохая посещалка для данной тематики без продвижения.
Ранее там висел школо-сайт про экзамены, учебу и т.п. И все беки именно по этой теме. И беки эти постепенно отваливаются. Чтобы поднять пузо и посещалку - начинайте ссылочное продвижение. Составляйте СЯ, список стартпоинтов и т.д. Сделайте внутреннюю оптимизацию и перелинковку.
А то что домен дроп ни на что не влияет. Тем более после 8-ми месяцев.
В этом файле можно написать что угодно. Сайт покажите. Возможно, что это самопис.
Tima44, посмотрите историю запросов робота и логи сервера. Могло получиться так, что пока программер копался, сервер отдавал ошибку 5хх. Из-за этого страницы могли вылететь.
Судя по тому, что Яндекс пишет в помощи вебмастеру, то у робота есть определенный лимит на количество запросов к серверу в один приход. И это логично. Если бы робот пытался опросить все страницы за раз, а их, допустим, на сайте миллион, то сервер бы не выдержал. Да и роботу не резон, каждый раз переиндексировать полностью веб сайт. Куда логичнее послать сначала запрос о том, была ли страница изменена или нет(If-Modified-Since). Пришел ответ, что была - тогда забираем, не было изменений - не берем. Зачем просто так тащить лишние 50-100 кило. Но нужно отметить, что у большей части сайтов этот заголовок не настроен, или отдает неверный параметр. Например, у WordPress. Все страницы отдают текущее время. И сайты индексируются неплохо, и позиции могут быть хорошие. Поэтому, именно на seo-показатели и позиции, данный заголовок не оказывает влияния. А что касается скорости индексации/переиндексации, то данный заголовок актуален не просто для крупных сайтов, а для тех, где: 1) много страниц; 2) ежедневное и значительное обновление контента; 3) небольшое количество внешних ссылок; 4) непродуманная структура; 5) кривая перелинковка или ее отсутствие. Тогда новая страница может очень быстро уйти вглубь сайта и на нее не будет входящих ссылок, ни внешних, ни внутренних. И робот просто до нее может не добраться. В конечном итоге и она будет проиндексирована, но может пройти год. Я проводил такой эксперимент с заголовком на WP. Было несколько страниц, которые не индексировались 9-12 месяцев. Содержание от 2к збп, картинка, уникальность 100%. Т.е. причин для исключения не было. Просто они были глубоко и на них не вели какие-либо ссылки. После настройки заголовка last-modified, эти страницы попали в индекс через 2 апа. Таким образом, я считаю, что данный заголовок влияет на скорость индексации, но актуален не для всех сайтов. В любом случае, лучше перебдеть :)
А это уже на Ajax нужно реализовывать. Вряд ли самостоятельно сделаете. Ищите программера.