xgenius

xgenius
Рейтинг
55
Регистрация
10.01.2002

Не хотелось бы переходить на личности, ув.товарищ Коссак, но вместо дельного совета вы пытаетесь подколоть человека, с навыками которого совершенно незнакомы. Это типичный пример не "анти-оптимизации", а с вашей стороны надменности и поверхностного суждения. Между прочим, с поисковиками я работаю с 1999 года, а на данном форуме еще с тех времен когда он назывался Besplatno.Ru и был посвящен разной ерунде типа халявы, с очень скромными по объему дискуссиями по теме раскрутки в интернет.

Так вот, если вы намекаете на переоптимизацию, то это никак не могло вызвать задержку с индексированием, фильтр - да, но не задержку. А насчет "заборных" ссылок, то если вы считаете что Business.Com это забор, идите и напишите на нем, хотя бы http://xyй.com - http://www.business.com/Directory/Computers_and_Software/Software_Development/, а также попытайтесь положить ссылку на каком-нибудь сайте власти типа <Moderated by wolf> где моя ссылка уже присутсвует. Ну, вперед! И если вы считаете, что те ссылки которые найдены поисковиком и на данный момент присутствуют при запросе в Гугле URL моего сайта, то глубоко ошибаетесь в выводах, что это все ссылки, это лишь десятая часть. Да, есть и "грязные" ссылки в обычные каталоги, но они все равно играют роль, пусть и небольшую. Ладно, что тут говорить...

Ну вот, прошло еще 2 недели, а результата никакого... Сайт до сих пор не в индексе... Я уж и Google Adsense на сайт завесил и ссылок нахерачил под пять сотен, даже на странице с PR=8 закинул ссылку, и все как мертвому припарки... Не знаю что и думать, начинаю паниковать, т.к. такой длительный простой меня просто обескровливает... Причем была мысль что это связано с "зеркальностью" прежнего домена на котором раньше лежал сайт и который до сих пор в индексе, поэтому я заполнил запрос на удаление старого сайта из базы, а потом еще и на саппорт им написал. Они ответили что удалили старый сайт из кэша и теперь после очередной проходки кравлеров исчезнет сайт и из результатов запросов. Боты пришли, пару дней полазали, и опять свалили в небытие. А старый сайт так и остался в индексе... Ну что за х..ня?! (извнияюсь за выражение, уже просто истерика...)

Спасибо за инфу!

Значит нашлись умелые руки... ;о) Софтинку расковыряли-таки... и не хотят делиться... "вот ведь до чего жадность доводит!"... Ну и хрен с ними, будем честными путями раскручиваться... :о))))

Теперь понял. Спасибо. :о)

Так что же все-таки можно предпрынять в отношении скрипта для выскре6ывания PR?... Неужели никто не встречал URL запроса к гуглевскому скрипту, к которому обращается Google Toolbar? Можно даже просто адрес скрипта или передаваемые поля (наверняка метод GET)...

API ихай я прочесал, там явно такой функции нет...

Пардон. А что означает слэнговое словечко - "серп" - в вашем понимании? Я просто давно уже не общался в SEO-форумах, поэтому не просек темы...

В смысле из серпов?... Шутка такая, да? Ню-Ню... ;о)

А вообще, мне знакомый (завсегдатай этого форума, земляк) сказал что где-то видел инфу по данному вопросу на этом форуме. То есть там вроде обсуждалось каким URLом вытаскивается инфа по PR из Гугеля и что она хеширована... Подскажите если кто помнит...

Года два назад практиковал такое, вебмастера действительно лазали, но это же нетаргетированный траффик... Ктому же, зачастую они старались поднакакать в отместку (они же ожидали что на моем сайте есть ссылка на их): делали ложные заказы, добавляли в свои спэм-листы и т.п... ;о)

Да в принципе идея автоматической проверялки PR уже давно витает, но до сих пор руки не дошли... Просто нет базиса, т.е. информации на которой строить скрипт. Вообще это дело нехитрое - с помощью библотеки CURL под PHP можно было бы собирать информацию, анализировать скриптом и резалт выводить в виде "циферь" или графиков/диаграмм (GD библиотека). Вопрос где брать инфу... Где у Гугля вырывать данные? Я видел third-party services по подсчету PR, но у них брать инфу не очень хорошо, да и ненадежно... А расковырять гугль-тулбар не могу, я в этом не профи... Если есть инфа, поделитесь, буду благодарен и впоследствие поделюсь получившейся скриптиной...

Так в том-то и дело, что Robots.txt составлен правильно, а ссылок с сайтов кишащих ботами не менее 10, часть даже с PR=6-7... Я вот подумал, я же полностью перенес контент и дизайн на новый домен, а все странички (статика) на старом домене отлинковал на новый... Может Гугляглючило из-за "псевдо-зеркальности"? Ведь в базе мог оставаться старый сайт с PR=5, а новый с PR=0 мог показаться Гуглю зеркалом которое он индексировать не стал бы... Я на днях всвязи с этой мыслью снес старый домен вовсе и поставил его в очередь на удаление... Может поможет...

Всего: 486