на локали duр detector нормально работает, через контрольную сумму картинки сравнивает при 99% совпадения почти все получаются идентичными. Ну, где копирайт другой, компрессия, формат, даже гамма - всё различает, хотя иногда похожие по стилистике картинки определяет как копии - какой нибудь предмет на равномерном и одинаковом фоне. Я думаю для веба такое можно сделать, даже я мог бы сделать, но где взять такие вычислительные мощности?
Сделайте ссылки текстом, в css впишите свои картинки в фон, спозиционируйте текст за пределами блока ссылки (у ссылки фиксированные размеры, свойства: display:block;overflow:hidden; текст будет выходить за пределы блока-ссылки и скрываться, а в фоне будет обычная картинка с надписью)
Даешь, денюжку в noindex на всех сайтах! Что с Я будет?
а действительно, откуда у Я такой тиц, бэков немного, тематика?
Формула расчёта pr страницы http://www.webworkshop.net/pagerank_calculator.php
http://www.webworkshop.net/pagerank.html.
PR страницы - её собственный (1 не в ед. измерения бара, а в истинном pr - отношения найдёте) + pr, переданный ей другими страницами - pr, отданный ей исходящими ссылками.
В пределах одного сайта pr по внешним уходит мало, так как он "гоняется" по внутренним страницам.
ИМХО.
Позвольте, а как же pr как раз таки и высчитывается так, что исходящие ссылки уменьшают pr страницы (возьмите формулы pr)
pr порождают не страницы с контентом, а вообще страницы (из определения pr) => чем больше страниц на сайте, тем выше pr главной (при условии, что все страницы ссылаются на главную). И все таки внешние ссылки отнимают pr у всего сайта, на различных примерах pr калькулятора можно отследить это, ведь если бы pr не уменьшался и другим страницам передавался, это порождало бы лавинообразное увеличение pr при циклической перелинковке сайтов (один отдал другому, но у самого не отнялось, тот другому, третий - первому, и второй раз уже увеличенный pr - но, конечно в пределах всего интернета), новые страницы порождают новый pr в интернете, другое это только его перетекание с других сайтов.
А вот можно узнать, такие запросы автоматом с сервера не приведут к перманентному бану ip, лучше проверять через прокси? Как вообще подобные сервисы работают? Есть ли лимит запросов или гугл не смотрит на долбёж с этой стороны?
Насчёт прибыли, почему бы не дать pr (перелинковкой по внтрунним) повыше, да ссылки продавать, имхо pr до 3 поднять реально при ~1000 внутренних страниц. Жалко пока 400 нет, а то взял бы. Дизайн неплохой, чистый, свободный. (Есть же, например, zakat.ru с очень хорошими характеристиками)
а если использовать file_get_contents? может у них хитрый скрипт-анти-граббер? может тогда попробовать заголовками сэмулировать браузер.
поищите такую функцию в примерах miscGzHandler($buf), там просто происходит проверка заголовков $_SERVER['HTTP_ACCEPT_ENCODING'] у меня давно она работает, проблем не было (на пьедестале)