Ну дык... Если я все правильно понял, то тут скорее не сквозняк получился, а постоянно "мигающие" ссылки;)
Н-да, судя по тому, что сейчас в топах, опять в чести дикий сверхтошнотный переспам...
Нарушают. Никакие.
В РФ запрещена розничная торговля лекарственными препаратами и БАД путем дистанционной продажи и продажи через дистрибьютеров.
Задачи, к примеру, такого рода: найти все таблицы, в которых есть поле field1.
Можно конечно и в дампе поковыряться, но SELECT * FROM INFORMATION_SCHEMA.COLUMNS WHERE column_name LIKE '%field1%', согласитесь, гораздо удобнее:)
[umka], спасибо большое:)
Есть немножко другое правило:)
Господа, а первоисточники почитать?:)
Ссылки, сорри, сейчас под рукой нет, но на память основные моменты пересказать могу.
Итак, как считается траст (и в Яндексе, и в Гугле принципы одинаковы).
1. Берется достаточно репрезентативная выборка сайтов в несколько тыс.штук.
2. Каждому сайту из этой выборки по определенным строго формализованным правилам вручную сотрудниками ПС присваивается некоторое значение траста в диапазоне от 0 (доры и пр.лабуда) до 1 (сайты, которые на все 100% отвечают вышеупомянутым строго формализованным правилам). Вот в этом пункте - и ответ на сабж;)
3. Сайтам, не попавшим в выборку в п.1, а также новым сайтам, для которых траст еще ни разу не считали, изначально присваивается некий стартовый уровень траста (предположим, 0.5, точную цифру только работники ПС знают).
4. Запускается итеративный пересчет по всей базе сайтов, проиндексированных ПС, по алгоритму, в основе которого лежат 2 правила:
а) если на сайт ссылаются сайты с высоким трастом, то траст этого сайта повышается;
б) если сайт ссылается на сайты с низким трастом, то траст этого сайта понижается.
На самом деле, конечно, все наверняка гораздо сложнее, но суть, основа алгоритма примерно такая.
А может само слово " Анекдоты" сидит в базе с этим пробелом?:)
Будет, но вывести его на хорошие позиции по мало-мальски серьезным геозависимым запросам при прочих равных будет заметно сложнее, чем если бы был регион Москва.
Заказывал прогон 5 страниц одного сайта с составлением описаний ТС'ом. Заказ выполнен, отчет получен. В отчете - 111 площадок, проверил выборочно штук 20. Что хочу отметить.
Заказ выполнен быстро, особенно с учетом того, что были выходные:) Все проверенные ссылки - прямые, однако в подавляющем большинстве безанкорные. Кроме того, очень многие ссылки идут с rel=nofollow:( (twitter, qip, friendfeed). С другой стороны, в noindex среди проверенных не встретил ни одной.
Описания сделаны в целом неплохо, вполне осмысленный и человеко-читабельный текст, но... очень многие описания не соответствуют содержанию страницы, на которую идет ссылка (ссылка, к примеру, на страницу про розовых слонов, а в описании говорится про серо-буро-малиновых). Такое впечатление, что описания генерились без привязки к конкретной странице. Хотя, пожалуй, я и сам не вполне четко сформулировал задание ТС'у в этой части.
Основные недостатки:
1. Безанкорность и nofollow многих ссылок, о чем уже написал выше (хотя в каких-то случаях это может оказаться и плюсом:))
2. Явная заспамленность микроблогов: практически каждый пост идет со ссылкой и с явно рекламным текстом. Так что есть большие сомнения в их долгой жизни и, тем более, в хорошей индексации Яндексом.
3. Очень много микроблогов не на поддоменах, а в папках одного и того же домена (не user.servis.ru, а servis.ru/user), что конечно же снижает SEO-эффект размещения.
Пожелания:
к уже здесь прозвучавшим (разбавление блогов нерекламными постами - обязательно!; растянутость по времени; делать ссылки анкорными там где сервисы это позволяют) добавлю пожалуй еще одно: при пополнении базы уделять особое внимание сервисам, в которых блоги создаются на поддоменах.
В целом, считаю, услуга вполне стоит своих денег, а если ТС отладит ее с учетом высказанных в этом топике пожеланий, то будет вообще отлично:)