ArtGallery

Рейтинг
52
Регистрация
07.02.2005

Если существует фильтр на контент - как же вылезают в поисковиках каталоги, у которых весь контент состоит из кусков описаний других сайтов, при этом эти же описания многократно продублированы на сотнях других каталогах?

Estel:
Активно обмениваюсь ссылками в ручном режиме. Существует ведь возможность как-то проверить автоматически наличие обратных ссылок со всех ресурсов, на которые ссылается мой сайт!?
Подскажите пожалуйста!

Ссылки бывают разные - проиндексированные, непроиндексированные и просто несуществующие.

Неплохо бы определиться, какие из них собираемся проверять и с какой целью.

Например, цель - убрать ссылки на недобросовестных линк-партнеров, которые снесли нашу ссылку.

Зарядим мы он-лайн сервис из числа вышеприведенных - а он показывает только проиндексированные страницы. А что если не повезло и страница партнера с нашей ссылкой временно выпала из кэша? Мы обратку в ответ снесем и окажемся не правы.

Или страница партнера является просто новой и не успела проиндексироваться? А сайт у партнера - хороший, и новую страничку он прилинковал к старой у которой PR4?

Так нет у меня каталога. Вроде нужно делать, но пока изучаю вопрос.

Тут ведь какое дело: сделаешь универсальный каталог - непонятно, сколько в день будет приходить заявок на включение (силы нужно соизмерять, чтобы не захлебнуться)

А сделаешь тематический (или региональный) каталог - как бы не оказаться в ситуации, что он будет ненаходибельным и пустым (нужно знать где сразу его можно будет проанонсировать).

Сразу отвечу на вопрос "А зачем делать каталог который не смогут находить посетители?" - "С первого дня мало какой сайт становится посещаемым. Любовь Гугла приходит со временем"

Владельцы каталогов, можете подсказать, какое количество заявок приходится обрабатывать ежедневно?

Сравнил полученный от Bazooka John материал с уже имеющимся (обрабатывал только англоязычный контекст поскольку другой меня не интересует).

Некоторые результаты:

У меня - слитая база англоязычная база из трех источников: достаточно распространенный в инете список "500 англ. сайтов" (есть в наборе топикстартера) + то что входит в Allsubmitter + список который "один день бесплатно" выдававал какой-то американец на своем сайте.

В сумме три списка на 1326 линков, после отсева дубликатов остаются 1060 сайтов.

Сравнил таблицу "seo-friendly-list.xls" с вышеуказанной базой на предмет совпадения контента .

Результат - из 407 линков уникальными оказались 115. Нормально.

В таблице "seo-friendly-list.xls" также находится интересный "черный список" англоязычных каталогов, с комментарими почему тот или иной каталог плох...

Спасибо за базу!

Finch:
Народ, объясните, пожалуйста, adsence'ом не пользовался. Хочу на сетку сайтов поставить показ адсенса. Среднее количество показов в сутки на одном сайте от 20 до 100. Количество сайтов порядка 30. Сколько теоретически удастся заработать на нём?
Как понимаю Беегун тут не покатит,т.к. количество показов маловато?

Зависит от темы и от аудитории.

Один из моих сайтов: тематика - art англоязычный, количество показов страниц с Адсенсом на борту - 3000 в день, количество кликов по Адсенсу - 100 в день, заработок - $10 в день. Цифры округлены.

Раньше при таких же показателях дневной заработок составлял порядка $15 в день.

Мне кажется, топикстартер прав вот в чем: Adsence стал приносить меньше денег. Не знаю, с чем это связано - с тем что рекламодатели понизили свои биды или с чем еще - но на моих сайтах налицо факт: за клик стали платить меньше.

asdfqwer:
если только в бан при чрезмерных стараниях. песочница токо по времени работает.

В бан невозможно попасть, выставляя ссылки на себя на других сайтах (иначе я давно забанил бы всех конкурентов, регистрируя их сайты по помойкам)

Про песок - у меня другая информация: "Слабый" может быть закопан обратно в песок выставлением на него группы "жирных" ссылок.

У меня ситуация другая - я ставлю "тощие" ссылки, но много...

alut:
Какие могут быть уравнения с миллиардами страниц ?
Это уже численные методы - метод последовательных иттераций, а уж как он реализован

Ну я просто думал, что уравнения - это одно, а методы их решения - это другое. Наверное, ошибся.

Ёхан Палыч:
Просто новый TBPR для новых сайтов показывается, а для старых нет. Это нисколько не умаляет значения PR и называть алгоритм блефом не умно и не этично.

Так я вроде не умалял и не называл?

Мы потому тут все так и волнуемся, что PR нужен нам для работы, это один из важных ориентиров. Раньше как было: посмотрел PR и сразу составил общее мнение о сайте. А теперь полная неопределенность.

Если сделать шаг в сторону - больше всего меня убивает то, что теперь все "пузомерки" рисуют беленькую полоску PageRankа и для проиндексированных страниц, и для неиндексированных страниц (FireFox)...

Ёхан Палыч:
По моему скромному мнению - система из ста уравнений решается последовательно: сначала находятся легкие неизвестные (новые сайты), затем более сложные (старые) с учетом ПР новых сайтов.

Наверное, пример оказался неудачным.

В любом случае, численное решение такой гугловской "системы уравнений" достигается многочисленными итерациями, в которых должны быть задействованы все переменные.

Всего: 247