Если существует фильтр на контент - как же вылезают в поисковиках каталоги, у которых весь контент состоит из кусков описаний других сайтов, при этом эти же описания многократно продублированы на сотнях других каталогах?
Ссылки бывают разные - проиндексированные, непроиндексированные и просто несуществующие.
Неплохо бы определиться, какие из них собираемся проверять и с какой целью.
Например, цель - убрать ссылки на недобросовестных линк-партнеров, которые снесли нашу ссылку.
Зарядим мы он-лайн сервис из числа вышеприведенных - а он показывает только проиндексированные страницы. А что если не повезло и страница партнера с нашей ссылкой временно выпала из кэша? Мы обратку в ответ снесем и окажемся не правы.
Или страница партнера является просто новой и не успела проиндексироваться? А сайт у партнера - хороший, и новую страничку он прилинковал к старой у которой PR4?
Так нет у меня каталога. Вроде нужно делать, но пока изучаю вопрос.
Тут ведь какое дело: сделаешь универсальный каталог - непонятно, сколько в день будет приходить заявок на включение (силы нужно соизмерять, чтобы не захлебнуться)
А сделаешь тематический (или региональный) каталог - как бы не оказаться в ситуации, что он будет ненаходибельным и пустым (нужно знать где сразу его можно будет проанонсировать).
Сразу отвечу на вопрос "А зачем делать каталог который не смогут находить посетители?" - "С первого дня мало какой сайт становится посещаемым. Любовь Гугла приходит со временем"
Владельцы каталогов, можете подсказать, какое количество заявок приходится обрабатывать ежедневно?
Сравнил полученный от Bazooka John материал с уже имеющимся (обрабатывал только англоязычный контекст поскольку другой меня не интересует).
Некоторые результаты:
У меня - слитая база англоязычная база из трех источников: достаточно распространенный в инете список "500 англ. сайтов" (есть в наборе топикстартера) + то что входит в Allsubmitter + список который "один день бесплатно" выдававал какой-то американец на своем сайте.
В сумме три списка на 1326 линков, после отсева дубликатов остаются 1060 сайтов.
Сравнил таблицу "seo-friendly-list.xls" с вышеуказанной базой на предмет совпадения контента .
Результат - из 407 линков уникальными оказались 115. Нормально.
В таблице "seo-friendly-list.xls" также находится интересный "черный список" англоязычных каталогов, с комментарими почему тот или иной каталог плох...
Спасибо за базу!
Зависит от темы и от аудитории.
Один из моих сайтов: тематика - art англоязычный, количество показов страниц с Адсенсом на борту - 3000 в день, количество кликов по Адсенсу - 100 в день, заработок - $10 в день. Цифры округлены.
Раньше при таких же показателях дневной заработок составлял порядка $15 в день.
Мне кажется, топикстартер прав вот в чем: Adsence стал приносить меньше денег. Не знаю, с чем это связано - с тем что рекламодатели понизили свои биды или с чем еще - но на моих сайтах налицо факт: за клик стали платить меньше.
В бан невозможно попасть, выставляя ссылки на себя на других сайтах (иначе я давно забанил бы всех конкурентов, регистрируя их сайты по помойкам)
Про песок - у меня другая информация: "Слабый" может быть закопан обратно в песок выставлением на него группы "жирных" ссылок.
У меня ситуация другая - я ставлю "тощие" ссылки, но много...
Ну я просто думал, что уравнения - это одно, а методы их решения - это другое. Наверное, ошибся.
Так я вроде не умалял и не называл?
Мы потому тут все так и волнуемся, что PR нужен нам для работы, это один из важных ориентиров. Раньше как было: посмотрел PR и сразу составил общее мнение о сайте. А теперь полная неопределенность.
Если сделать шаг в сторону - больше всего меня убивает то, что теперь все "пузомерки" рисуют беленькую полоску PageRankа и для проиндексированных страниц, и для неиндексированных страниц (FireFox)...
Наверное, пример оказался неудачным.
В любом случае, численное решение такой гугловской "системы уравнений" достигается многочисленными итерациями, в которых должны быть задействованы все переменные.