- нет, дизайн заставляет задуматься, иногда присмотреться(выскакивает по тексту фон шапки)
- ну да ладно, с главной идем на сраницу с товаром. Хм вместо шапки начинает что то грузится, причем долго. Возможная причина(отдача просто файлов рисунков с хостинга доходит до 3-5 секунд) Уход посетителя обеспечен
Зачем сдался флэш для меню, это нонсенс.
Да, но и ваше продвижение должно предусматривать оптимизацию сайта, А это как раз входит в оптимизацию.
Ну и также предусматривает ключи анкоры и тд и соответствие их на сайте? ;)
Наверное запрос ГЛАВНАЯ является ВЧ запросом для данного сайта.
<title>Главная |
Вот это тоже входит в оптимизацию сайта(ну или в дизайн сайта)
<tr><td valign=top style='font-size: 14px; line-height: 20px; padding-right: 12px;'><a href='?q=taxonomy/term/22,28' class='left-link' style='padding: 2px 5px 1px 5px'><span style='color: #006699; font-size: 12px;'></span><nobr><b>A</b>gent Provocateur</nobr></a>
Это называется анализ и оптимизация сайта до начала продвижения, и выдача аргументированного задания заказчику :)
- для начала берем шаблончик http://blog.html.it/layoutgala/ который подходит, под ваш шаблон.
- ставим firefox, и плагин firebug.
- находим подобные по шаблону сверстанные сайты, и просматриваем как сделано в файребуг.
Находим примеры верстки, и тоже смотрим там же. Примеры просматриваем не все подряд, а...
- начинаем делать шапку, просматриваем примеры для шапки страницы...практикуемся над своей шапкой
и тд.
При появлении вопросов , каждый вопрос поиском:)
Практика, это лучший учебник, Удачи!
Ну, в крайних случаях..велком в аську
морда это вот эта http://rpech.ru/ ? Текстовая копия | Cохраненная копия (кэш яндекса)
У вас нет на морду ссылок со страниц сайта :)
Ну или это называется дубль главной.
- каждая страница(не каталог) которую вы хотите выкинуть, должна отдавать 404 (каталогов в индексе нету)
- при этом она не должна быть закрыта в файле роботс!
для того, чтобы Гугл вычистил все страницы 404. необходимо время.
На моем сайте обычно выдает, только часть страниц 404 при очередном проходе.
Вначале предупреждает об ошибке в вебмастере, при очередной проверке через какое то время удаляет из индекса.
Чтобы не гадать наблюдайте этот процесс в вебмастере.
Nadejda добавил 02.03.2010 в 13:19
- контент который есть, возможно не уникальный. При этом возможно продвижение сайта, но уникальным контентом, добовляемым достаточно часто. Например новости или статьи. У вас же новости это добавляемые дубли... таких страниц не должно быть(нет контента) http://www.startvrn.ru/news.html?id=99
- http://www.startvrn.ru/robots.txt ?
Nadejda добавил 02.03.2010 в 13:33
- На вашем сайте не существует главной страницы. ссылка на каждой странице сайта ( http://workinua.com.ua ) на главную есть. Но такой страницы http://workinua.com.ua не существует😎 Сайт без главной как-то не комфильно😂
- http://www.workinua.com.ua/robots.txt ?
случайно не этим serverex.net ?, а то вот по совету хочу взять хостинг у них.
Nadejda добавил 01.03.2010 в 21:47
не покажете расположенный на нем сайт?
- не оптимизированы картинки, а фавикон 60 кило
- Вы похоже дизайн где то взяли, и переделали.:) Куча подключаемых джава скриптов, и ни одного работающего на странице.
А что там индексировать?
Ноль контента, соответственно получаем куча дублей страниц
Nadejda добавил 28.02.2010 в 09:14
Вот блин делать нечего, ссылки расставлять несуществующих страниц.🙅
User-agent: *
Disallow: /index.html
Результаты проверки URL
URL Результат
-http://www.1st-attractive.com/ разрешен
-http://www.1st-attractive.com/index.html запрещен правилом /index.html
- Мне больше не понятно что ее заставляет открываться по адресу домена
Правилом сервера открывать по домену индекс страницу( по умолчанию это index.html, index.php). Правило можно изменить в htaccess указав другую страницу. например main.html
- страница на сайте существует, если на нее есть ссылка.
Страница не уществует если нет ссылки, даже если ее можно открыть.
Вот поэтому, и не должно быть в ссылках ID сессии. при новом заходе робота, формируется новая сессия, новая ссылка, которая открывает страницу с новым адресом. Несмотря на то, что старой ссылки уже нет на сайте. Робот проверяет наличие страницы из своего индекса, и страница конечно открывается с любым номером сессии. Т.е идет накопление страниц дублей.
Т.е на сайте страницу можно открыть с милионами разных адресов. Но их не существует. пока не существует ссылки на этот адрес
Главная страница, это адрес домена, и то вы должны выбрать один из двух.
Кто сказал не любит?
Нормально кушает. всего страниц 159, в выдаче 157
Стандартный вердпресс, пока без лишних ссылок на дубли особо.
Вот только с фавиконом переборщили, в 35 кило:)
пару файлов 404 из кода.
ну и нет обработки 404
Ноль трекбэков;)
Знакомство с примером трэбека(список ссылающихся страниц по НЧ) страницы корня маленького дерева по НЧ
мдя -http://rybakiohotniki.ru/zip71/ , вот пример страниц юзеров в данном случае с мужчиной;)
Nadejda добавил 27.02.2010 в 11:51
Пока в норме
- назад, домой, домашняя стрмница это ваши анкоры под ВЧ ключи?:)
Данная структура, как раз эффективна для ПР собственно со страниц своего сайта. Можно до ПР4 только за счет своего сайта получить.
Задача каждой вес главной
задача каждой из категории, вес главной и странице категории.
Две три категории - мало, больше 10 много, насколько помню из примера для вычисления:)
Willie: жаль:) насчет такого плагина. Займись, был бы востребован, ссылка на твой СЕО сайт с трастового ресурса не помещает;)
Nadejda добавил 27.02.2010 в 10:36
есть такое чувство безполезности, но не проверялось. Ибо не строит "дерево"
Возможно задумывалось для пользователя, если он читает по этой теме...предложим похожее.
У вердпресса есть трекбэки, хорошая вещь в этом случае для пользователя. При простановке ссылки из очередной статьи на статью-"корень темы" , публикуется Трекбэк.
В результате получаем на странице корне список трекбеков(всех страниц ссылающихся на эту) по этой теме.