The WishMaster, с нетерпением жду поправок на мои сообщения, что помечены выше... на то и раздел для новичков - всегда рады получать дельные советы от Гуру
antel13, - спасибо за поднятую тему, посмотрим чего скажут те, кто с продвижением на "ты"! :)
ну почему шутка? Робот сравнит содержимое проиндексированных ранее страниц, определит, что на самом деле ничего не меняется, обманка - и перестанет ходить. Потом сиди-гадай, что же нет так получилось. Почему Платон долго не отвечает на проблему не посещаемости. Контент уникальный, сплошное "белое seo" на сайте... Как еще иначе рассматривать молчание поисковика? Согласен перебор с термином "санкции". А каковы синонимы этого события, характеризующие тот момент, когда сайт не видит поисковая система очень долго? :)
Scaryer, Да вот понял спустя пару часов - не стоит закрывать от индекса те самые "Цены", "Обратная связь"... Даже есть смысл сделать ЧПУ в адресе страниц сайта. Да, действительно так - я все виджеты с облаком меток, рубриками позакрывал от отображения. Не так воспринял один совет на форуме - закрываем всё, показываем только главную - продвигаемую страницу
А у Вас там вроде ходят роботы :)
Сайт ваш на ukoz, не заню как там дела в общем поиске обстоят, если у этого хостера-конструктора сайтов быть в клиентах.... Нет у вас в "title" своего описания, "description" отсутствует в мета тэгах... нет на всякий пожарный ключевых слов в том же контейнере мета-тэгов..
Учитывая, что недавно запустились - не переживайте, что вас не видят поисковые системы. На то оно и существует, то самое SEO - для улучшения результатов через месяц, не ранее. Главное на первых парах не переборщить с закупкой ссылок - не делать ссылочный взрыв (неожиданную посещаемость)! К сожалению на сегодня - только по возрастающей, постепенно. Иначе Яндекс воспримет сайт как будущую площадку для продаж ссылок, или тому подобное.
Ну если у вас нет уже санкций или (тьфу-тьфу) бана от поисковиков, то Ковырять надо эти куски кода в sitemap.xml:
Если решились поменять значение обновлений на "каждый день" - то разумеется и менять надо контент каждый день. Тонкость этой хитрой прикормки робота Яндекс срабатывает не сразу - разумеется надо ждать следующего АП или захода робота ,который проиндексирует изменения в содержимом файла sitemap.xml. Тут главное не проколоться - не делать минимальных изменений в сео-тексте (вносить более 60% изменений) т.е. по-честному менять содержимое страницы, как и указали в sitemap.xml.
Опять же, насколько это сейчас эффективно - не знаю! делал данный трюк прошлым летом над одним сайтом - сработало. Через инструмент от Яндекса "Вэбмастер" наблюдал за изменением даты посещения сайта роботом.... Примите как на заметку мой совет.
Feud, Благодарю за ссылку, много чего закрывать надо.
А вот подобного со своим сайтом я еще не наблюдал ,что описано там по ссылке :
Видать со временем дубли в индексе появляются?!
ну разумеется просто так не заставить робота ходить к вам каждый день.... Ведь АП происходит не каждый день.
Способ есть один, не знаю точно, на сколько он эффективен - указание в фале sitemap.xml вместо Weekly значения "всегда" или "каждый день" (не помню как по-ангийски) : <changefreq>Weekly</changefreq>
Но обязательно соответственно менять контент, если сообщаете роботу, что страница меняется каждый день! Иначе под санкцию можно угодить или менее строгое предупреждение.
вот как раз я и имел неосторожность состряпать сайт-визитку на WPress. Хотя идея на этом движке сделать сайт была из-за его структуры как блога - писать в дальнейшем статьи с возможностью комментирования. А зачем данный движок (или джумла) делает дубли? Там как всё это отключить? А то конструкция Disallow: /*? в моём robots.txt как раз закрывает всё, кроме главной.
Хмм.. тогда я точно не так понял это понятие "дубли"... Значит главное - это не повторять контент, а не это "показывать или нет поисковику(например страница "Цены", где только таблица-прайс и ссылка на форму контактов)