Вот! Я про то и говорю, что тут механизм гораздо проще работает. Об можно позже поговорить.
По сайту Вашему работ-то на копейку!
По коду:
- <meta name="title" content="..."> - убрать;
- <meta name="robots" content="index, follow, noarchive"> и <meta name="..." content="nocache"> - "фффтопку";
- верхнюю менюшку лучше перенести вправо (сделать вертикальной);
- все камменты - также "ффтопку".
И будет практически идеальный сайт в плане кода.
По важному:
- напишите НОРМАЛЬНЫЕ заголовки страниц;
- это же касается и <h1> (только не дублируйте туда заголовки);
- контента надо добавить раза в два...три;
- поставьте пару раз <h2> после добавления контента;
- лучше на каждую страницу влепить еще по картинке с рожами этих... ну, знаете, кого;
- к ссылками лучше поле TITLE все же прописать.
И будет практически идеальный сайт. У Вас, кстати, 100% страниц в основном индексе. Так что как только переделаете - взлетите сразу, Гугол Ваш сайт любит. Просто ему нечего высоко ставить в выдаче, понимаете? Так помогите ему! Там делов-то - на один вечер; серьезно говорю.
P.S. Приятно видеть сайт, который еще не испорчен личной дуростью веб-мастера! Такой поднять проще простого.
Ну спасибо!
Не, ну не скоты ли (если так)?! Только недавно страницу переписал... поэтому даже не проверял на уникальность. Еще раз СПАСИБО, пошел смотреть в COPYSCAPE.
Флешечка,
и тебе спасибо! Прикинь, а я эту статью, как никакую, по плотности и набору ключевиков вылизал до блеска. А я-то голову ломаю, отчего все СЧ и НЧ собрал по вариантам запроса, а вот именно эта страница не лезет в ТОП, хоть тресни! Понимаю, конечно, что "морда" их домена сильнее, чем мой отдельный "внутряк", но чтоб новости впереди были?!
Хочешь, тебе тоже что-нибудь хорошее сделаю?
---------------------
Willie добавил 20.01.2010 в 19:56
У Вас все наоборот: ценное в самом низу, а всякая фигня вверху. TITLE, конечно, никуда не годятся, а вот DESCRIPTION неплохие, удивлен.
Про код... похоже, скоро буду спрашивать:
- У Вас битрикс?
- Да.
- До свидания.
То, как стоят ссылки ближе к низу - это просто ужасно! Это ни с какого бодуна такое не придумаешь. Не человеческих рук дело... :)
P.S. Пора FAQ или какую-нибудь мануалку писать по аудиту. Но не можно же все одно и то же в сотый раз говорить! А в теме найти уже проблемно, я это понимаю.
-----------------------
Willie добавил 20.01.2010 в 20:04
Пока не поздно - правьте DESCRIPTION: то, что у Вас, Гугол за нормальные описания не считает. Вы свалились совсем недавно, поэтому шанс вылезти без экстраординарных телодвижений есть.
---------------------------------
Willie добавил 20.01.2010 в 20:12
Честно? Я вообще не понимаю, откуда у Вас с такими TITLE траффик. А он есть.
Кстати, не подскажите: я Ваш сайт смотреть полез - а на меня какие-то окна с порнухой посыпались одно за другим... Ваших шаловливых ручонок проделки? :)
-------------------------
Willie добавил 20.01.2010 в 20:16
Код бы заодно поправили, а то вот таких глупостей: <td style="position: relative; display: block;"></td> там, как на собаке блох.
Я бы Вам что-нибудь ответил, но я не знаю, что такое "подсказки".
Не "сайт"! Мы можем говорить лишь о страницах. А что за запрос и что за сайт у Вас?
P.S. "Песка" нет как такового. Как и "бонуса новичка", кстати. Может, "песочница" когда-то и была, но сейчас там немножко другие механизмы работают.
Ха! Мнения разошлись. Или я что не так понял?! Отчего не D? Я так понимаю, что если сервер будет в дауне - то кто же будет выдавать 503-ю ошибку? А как вариант D правильно переводится?
По времени вряд ли прокатит. Знаете, почему мне так кажется? У меня в WMT показывает, что Гугол загрузил последний раз роботса... ну, допустим, 8 часов назад - а на сайте он каждый час бывает. Можно было бы предпложить, что он грузит его каждый раз перед сканом - но это не так: а вдруг на время загрузки запретное время еще не наступило, а вот во время обхода страниц оно наступит?
Кстати, я тоже методом исключения выбрал C. Потому, что A (про письмо Гуглу) - откровенная глупость, а менять динамически или ставить время согласно приведенной логике то же самое. Если честно, то я вообще не знаю, допустимо ли указывать время или день в роботсе, но чем-то задним чувствую, что нет: не для этого этот файл задумывался.
... черт, неужели я с п.2 лопухнулся?! ...
Запросто такое может быть! Даже у очень хороших сайтов редко бывает, что больше 50% в основном индексе.
А Вы сами можете легко проверить, как показываются в выдаче страницы из "соплей" и хорошие. И мне интересно было бы узнать, если вдруг вопиющие исключения обнаружатся ("страница из основного индекса показывается плохо" - не в счет, имею в виду обратное).
Вы имели в виду "страница", наверное, а не "сайт"? Это мы смотрим ранжирование страниц ВНУТРИ САЙТА (на всякий случай уточняю).
Если она в СЕРПе где-то очень далеко - то ... не, ну сами же знаете ответ! Напишите даже слабую страницу по ключевику "разведение пчел на балконе в Мухосранске" - так они и из "соплей" по такому запросу показаться сможет пристойно. А вот войти в ТОП-10 по "auto insurance", к примеру... короче, понятно, что хочу сказать.
Я через п.39 строил версию про п.8. Что я знаю точно? Гугол писал, что если страницу закрыть в роботсе, то он НЕ СМОЖЕТ воспользоваться директивами noindex и nofollow в META. Значит, ответ на п.39 может быть только TRUE. Логично? А раз в п.39 приплюсовали и 301 редирект - получается, что бот им тоже не сможет воспользоваться, если в п.8 выбрать D.
Хотя я запросто могу ошибаться; но про noindex и nofollow - уверен: в справке Гугла как-то это видел собственными глазами.
Согласен. Здесь Вы правы на все 100%, погорячился. А все оттого, что НЕНАВИЖУ JavaScript. Был бы начальником отдела по разработке сайтов - выгонял бы любого за одну только мысль использовать его в верстке.
Кстати, а как п.2 и п.29 ответили?
Спасибо, что откликнулись! Мне этот тест очень понравился; я пытался отвечать, никуда не подглядывая, оттого и интересно, много ли напортачил.
.... и в очередной раз сижу и громко думаю: "Бля! Ну отчего у меня нет сайта про SEO?! Такая идея офигенная - подобные тесты делать!" Мне б компаньона найти, чтоб контент помогал писать - с удовольствием бы занялся подобным сайтом!
Офигенный тест! ТС, спасибо большое!
Самые интересные пункты, на мой взгляд.
п.4. Я выбрал D. Да, этот ответ почти наверняка верный; проверяют знания, может ли сайт индексироваться, если главная страница - дерьмо.
п.8 актуален; я выбрал ответ С, хотя есть сомнения в сторону ответа D. Также см.п.39.
п.11 - КРАСАВЕЦ! Обратите ОСОБОЕ внимание на вариант С: буквально вчера смотрел сайт, где такое получилось непроизвольно. Потому, что меню на ЯваСкрипте. Ну, а если в меню, кроме самой ссылки, если слова из ее обрамления? Вот вам и ПРЯМОЕ указание Гугла о вреде ЯваСкриптов! Ответ A, конечно.
п.14 - заметался между B и D. Просто лениво лезть смотреть, выбрал B.
п.16 - вот хитрецы! "First Click Free", говорите? Ну-ну... да что не используй, все равно ответ A, иначе будет клоакинг.
п.22 - если правильный ответ D, то Гугол фактически признал региональность (пунктом А). А судя по всему, ответ именно такой.
А вообще тест далеко не так прост, как показалось вначале. Интересно было бы пообсуждать, кто как ответил, и почему.
Могу дать хорошую ссылочку. Не поверите, но там все об этом... это ссылка на этот раздел форума.
Вы понимаете, что точные ответы, даже в форме постулатов, займут места примерно с небольшой блог?!
Гугол официально отрицает существование дополнительного индекса (на нашем жаргоне это "сопли", от слова "supplimental"). Но факт остается фактом: участвуют в поиске и приносят траффик лишь те страницы, которые есть в основном, и только по супер-редким НЧ показываются страницы из дополнительного. То, что называют здесь "наложили фильтр на сайт", почти всегда означает, что львиная доля страниц находится в "соплях".
Смотреть так:
- site:домен - это общий индекс, то есть, сколько страниц Гугол держит в себе;
- site:домен/* - это основной индекс, то есть, сколько страниц Гугол допустил к поиску.
Отсюда нетрудно понять, как узнать число страниц в "соплях".
Проверить, где именно находится отдельная страница с сайта, можно так. Из начала TITLE берете два...четыре слова, и смотрите:
- эти_слова site:домен - находите страницу, она по-любому должна быть в самом начале, если Гугол ее схавал;
- эти_слова site:домен/* - если ее не оказалось примерно там же, значит, она в "соплях".
Последняя метода исключительно полезна для проверки судьбы новых страниц, забрал ли их Гугол и куда поместил. Проверять "куда поместил" достоверно примерно неделю...три спустя ее появления в общем индексе, поскольку в первые дни ее запросто могут сначало поместить в основной индекс, через день...два закинуть в "сопли", и через неделю...две вернуть обратно, причем на ту позицию, которую она объективно заслужила. Или не вернуть :)