Сайт http://prsearch.net показывает, включен ли интересующий сайт в DMOZ и Google Directory. Так оно и есть - скрипт показывает, что мой сайт присутствует и там и там, но когда я захожу сам в Google Directory, я его там не вижу. Тогда интересно влияет ли как-либо такое "скрытое" нахождение в Google Directory на позиции в выдаче Google?
Вернемся немного непосредственно к сабжу. Проект мне понравился по своей задумке, но у меня возникли некоторые непонятки. Скажем так, зарегистрировал я сайт в каталоге, указал ряд ключевых слов. Люди заходят, задают запросы с "моими" ключевыми словами, и мой сайт оказывается в выдаче, ко мне идет определенный бесплатный траффик посетителей каталога. А какой собственно будет с этого доход самому владельцу каталога, раз регистрация сайта там бесплатная? Я конечно не разбираюсь во всей кухне PPC, конвертации траффика и т.д., но что-то не вижу, какой может быть здесь доход от "раздачи" бесплатного траффика (если он конечно будет вообще как таковой). Кстати прокрутка Adsense здесь ИМХО малорезультативна - страницы генерируются очевидно динамическим путем, и в блоках adsense реклама отображается нерелевантно, поэтому CTR должен быть низким.
А насчет PR - если честно не особенно верится. Пока что PR=0, и вряд ли организатору проекта удастся быстро его накрутить.
Интересно, а зачем тогда Google принудительно задерживать к показу сайты в своем каталоге на такой долгий срок? Это что-то типа фильтра-песочницы для новых членов ДМОЗ?
Интересно, у вас на практике такое было? На мой взгляд, пеналить за совпадение одного абзаца - чистый нонсенс. Могу дать примеры куч сайтов, где идет сплошное дублирование контента, и причем в данном случае нельзя сказать, что "материалы одного сайта заимствованы с другого" - это например сайты с текстами песен. У одной и той же песни один и тот же текст, и существует куча сайтов, где это все можно найти. Или, например, сайты с табами для гитары, или сайты с нормативными актами (законами) - такая же ситуация. По каким критериям тогда должны отбираться сайты для выдачи?
А кто пользуется Google Sitemaps? Насколько быстро эта штука позволяет проиндексировать новые страницы и переиндексировать старые? Много ли сложностей в установке Google Sitemaps? Расскажите, плз., в общих чертах, как это все запускать?
Сайт средний (Google проиндексировано около 1000 страниц). PR - 5. Новые страницы абсолютно не похожи на старые - везде только уникальный контент.
Новых страниц в индексе нет однозначно, а вот ходил ли по ним бот или нет определенно сказать не могу, но по субъективным ощущениям, основанным на предыдущем опыте могу сказать, что скорее всего не ходил.
У меня такая же ситуация. Напрасно наверное поскупился на экспресс-доставку - а так за 24$ можно было бы получить с курьером. Если заказывать курьерскую доставку, деньги они просто автоматом со счета спишут? И что делать, если чек не приходит? Письмо в саппорт поможет?
То, что archive.org не показывает данные по сайту за 2005 год - это проблемы не данного сайта, а archive.org. Когда я для интереса смотрел в archive.org инфу по своему сайту, тоже увидел сплошные пробелы за 2005 год, но это реально ни о чем не говорит...
А тогда интересно их база снимков когда-нибудь обновляется, или один раз наснимали и все? Скажем, ураган снес пару сотен домов, а в Google Earth они по-прежнему на месте.
О технической стороне дела я могу только догадываться. Я практически ничего не знаю о данных технологиях - вот и интересуюсь.