SilverMaster

SilverMaster
Рейтинг
228
Регистрация
08.10.2003
Как писал Interitus
Не будет, если по запросу этого адреса выдается либо действительно сразу этот файл, либо серверный редирект на него.

tnx

😎

Как писал dimatr
Я так думаю, что вычисление ch в любой версии гугбара легко решается softice'ом.
Скорее всего ch - это хеш сумма а ля md5, только проще. это значит, что запустив софтайс и набрав в строке запроса гугбара уникальный урл, можно найти кусок памяти, где он располагается.
Далее ставится брейк пойнт на него (bpm) и смотрится куда строка копируется, и что потом с ней делается.
А второй способ просниферить http запрос, найти потом его в памяти, и посмотреть как формируется....хотя не уверен что сработает...первый вариант надежнее.

Мдя...это так.. мысли вслух, буде время надо занятся, хотя чесно говоря ни разу не ломал IE :) Кому не жалко киньте скриптец на асю 162993, будет много респектов %)

хе хе.. рассказал как - и сам же просит сделать за него самого ;)

даю третий вариант! ;))))))

для любителей вариантов так сказать:

ставим тазик с виндой, цепляем туда тулбар, проксю... далее продолжать? кстати - самый надежный вариант, к изменению алгоритма абсолютно равнодушен. Стоит понты - если у кого есть виндозный сервер в нэте.

Как писал Максим Палецких
конечно! 😂
у Вашего exe'шника PR сразу сравняется с мордой 😂
:)шутка...

ну да, мне тоже смешно, просто я неуверен в своих выводах, а мои доводы показались тем с кем я общаюсь в онлайне неубедительными. Собственно поэтому и решил вынести на всеобщее так сказать.

Как писал Cossack
Любой магазин в онлайне, если там есть приток новых товаров - гарантированный ночной кошмар для оптимизатора, контролировать ввод данных клиентом сложно, но новые, а иногда и залежалые товары надо "выпихивать" на видное место и желательно если таких мест будет 15-20 ;), например по группам товаров, спец. предложения, распродажа - и такие разделы должны быть статичными и популярными ;).

Блин, действительно выходит полный бардак.

Сколько раз видел подобные вещи: что-то ищешь в гуглье, он выдает результаты, а то что видел там гугль уже давно нет на странице, хорошо, _НЕКОТОРЫЕ_ могут посмотреть кэш гугля, но я затрудняюсь с определением (даже примерно) процента таких людей.

Вывод напрашивается сам собой, если уж что-то где-то стоит - не трогай его.

Я не прав?

Как писал Cossack

Вот потому и надо как-то организовать хаос ;).

Сорри, но я НЕ уловил смысл шутки

Как писал AreaFix
Cossack, спасибо.
Топы это конечно делать надо ;)
Но все-таки, если исходить из того чтобы максимально охватить, залинковать все товары.
Просто у меня некоторые сомнения по поводу обоих вариантов решения, в случае постоянного, хочется некой разнообразности, т.к. тематика динамическая и хочется немного динамики, + больше вероятность залинковки всех страниц; в случае произвольных ссылок, возникают сложности с тем, насколько эти ссылки соответсвуют тематике раз они постоянно меняются, а постоянного контента ноль... и схожие рассуждения.

тут палка о двух концах, с одной стороны динамический и соответственно более интресный контент, с другой постоянная неразбериха с сылками на внуренние страницы товаров. не думаю что поисковику понравится "скачки" кол-ва ссылок на определенную страницу.

Как писал Nikolai Popkov
Это

http://www.google.ru/search?q=cache:eBK1rwQMK3sJ:top100.rambler.ru/top100/Recreation/rate10.0.shtml.ru+&hl=ru

- хранящийся в G o o g l e кеш ссылки http://top100.rambler.ru/top100/Recreation/rate10.0.shtml.ru


ссылки на этой странице на сайты имеют вид

top100.rambler.ru/click?gr=56&p=8&i=474739&t=10&_URL=http://сайт.ru/

в корне домена есть файл


http://top100.rambler.ru/robots.txt :
User-agent: *
Disallow: /cgi-bin
Disallow: /cgi-top100
Disallow: /click
Disallow: /cluck


Таким образом, порядочный робот Google не должен идти по этой ссылке, которая начинается с запрещенного адреса top100.rambler.ru/click


Тем не менее ссылки на страницы в домене top100.rambler.ru есть во многих "Обратных ссылках" на сайты, например:

http://www.google.ru/search?sourceid=navclient&hl=ru&q=link:http%3A%2F%2Fwww.nix.ru%2F

или

http://www.google.ru/search?sourceid=navclient&hl=ru&q=link:http%3A%2F%2Fwww.consultant.ru%2F

Я полагаю, что робот Google и не идет по ссылке, а прямо учитывает содержащийся в теле ссылки адрес http://сайт.ru/ .

я может быть слабо шарю, НО...

роботс.тхт запрещает роботу ИНДЕКСИРОВАНИЕ страниц лежащих под top100.rambler.ru/click а не хождение по ссылкам.

а линк top100.rambler.ru/click?gr=56&p=8&i=474739&t=10&_URL=http://сайт.ru/ ведет не на субдомен top100.rambler.ru/click а на сайт http://сайт.ru/

можно предположить, что робот кликнув на линк попал в незапрещенную зону и спокойно защитал ссылку.

у меня встречный вопрос.. почему вас так парит этот вопрос? уже в двух топиках, которые превращаются обычно во флейм?

Как писал brazma
Проблема следующая. Гугл проиндексировал первую (зарегестрированную) страницы сайта, а дальше по ссылкам не идет. Причем не только по внешним но и по внутренним. В свою очередь на сайте, где все ссылки являются субдоменами данного сайта проиндексировал уже почти 600 страниц, хотя сам сайт зарегистрен позже. В чем может быть причина?

а что значит зарегистрирован? 😮

Как писал Zateynik
работа по оптимизации выполнена, дальше обмен ссылками не нужен.

такое бывает?

😮

Как писал Zateynik
Все еще в силе... сайтов осталось 6.
Сайты русскоязычные...
Тематики:
приколы, развлечения (ПР5, ИЦ=325)
музыка (ИЦ=170)
тосты и поздравления (ПР4, ИЦ=120)
двери и окна (ИЦ=60)
питомник нем. овчарок (ИЦ=80)
деревообработка (ИЦ=40)

БОЖЕ, скорее скажи что стало с теми двумя, у меня уже сердце кровью обливается... и стуканись в аську, ссылками поменяемся

Всего: 1174