А я конечно и не утверждаю, что модеры не смотрят на уже имеющийся ТИц при приеме в кат. Просто сам тиц не показатель приема, а как ему и следует - дутая пузомерка. (Хотя кто их знает этих модеров, на что они там смотрят :) ).
T.R.O.N. - Сгоряча :)
У меня кучу сайтов брали в каталог после первой индексации (спустя 7 дней после выкладки сайта в нете) и конечно там и в помине не было ни бэков ни ТИц-а.
А платники вообще в первый день брали (в первый день заявка, на третий день ответ что берем).
Смысла у ТИц-а нет скрытого - он то, что есть, а именно пузомерка для визуального отличя сайта среди многих таких же. Чтобы показать как его любят другие сайты, что ли.
У меня ни на одном сайте никогда не было и не будет кнопки тица, каким бы большим он не был. Думаю, что и у большинства здесь собравшихся тоже. Так что задача рекламы - это смутно. А вот с MaxMar скорее соглашусь - дань моде, чтобы не отстать от остальных поисковиков, скорее да. Нужно предоставить общественности какой либо ползунок, который хоть как то отражает рейтинг сайта среди прочих.
Если склейка и есть, то определено для конкретного набора слов. Пару моих старых престарых досок, цитируют более 1500 сайтов. Соответственно ссылки стоят такие, как и у меня на досках - заголовки объявлений.
По любому из этих заголовков мои на первом месте. По 1500 одинаоковых 3-4 словных анкоров более, чем на 200 страниц и все они первые. Если по ним была бы склейка, то вылетел бы как пить дать (хотя бы по 50% анкоров).
JoJoJo - оно не то, чтобы лучше, просто читабельнее. У вас одиночные параметры, это не вредит ни поисковику, ни странице, только внешний вид для людей немного портит. Приведите к виду www.aaa.ru/services.html www.aaa.ru/abouts.html и станет просто красивее смотреться. При этом в .htaccess для модреврайта ставьте обработку:
RewriteEngine On
RewriteBase /
RewriteRule ^services.html /index.php?page=services
RewriteRule ^abouts.html /index.php?page=abouts
В принципе можно одним регулярным отловить все имена, но я не мастак их писать. Попросите спецов на любом форуме, они вам напишут строку, которая отлавливает имена страниц и подставляет их в ваш параметр ?page=
А на счет роботов - не заморачивайтесь. Есть тлько несколько параметров для разных поисковиков, которые они игнорят. (В помощи к каждому поисковику они описаны). Для гугла это &id= и т.д.
Прикололо:
А потом:
:)
Пока еще рановато. Но в течение текущего апа пока только в плюс (работы ведуться правда, поэтому объяективно не смогу сказать повлияет или нет снятие временно битых ссылок).
На счет добавления в индекс - так там основная масса и не добавиться - они очень неприличного вида (с сессиями, ИД без параметров, временные и пр.) Может процентов 15 и добавятся в индекс, но это не факт, что они не выпадут в следующий ап. А напрягать Я еще и добавлением - тут не хватает запросов на проверку.
В принципе при таких огромных количествах, как у меня, обновление ссылочного нормально скажется, держаться не стану за каждую страницу (при чем с неизвестными параметрами).
А как оно могло отразиться то? Этих страниц с линками не было проиндексировано в Я.
Сенкс Поручику, разобрались. Выпадал потому что на виртуальном хостинге стоит кэширующий сервер и он не дожидался ответа от скрипта в компаниях с большим количеством ссылок и закрывал соединение. Все компании до 2000 ссылок проскачили его нормально, но когда я перешел на компании от 8000 до 20 000 ссылок, то тут он и вываливаться начал. Пришлось запускать с локалки и кушать свой траф любимый.
Скриптец советую юзать всем, кто в ксапе покупает линки. Стоит всего 30, а мне на третий день вернулось уже 100 000 ксапов (а это 72 убитых енота). То, есть окупился он у меня уже в конце первого дня. :) А еще и 30% не проверено от всех компаний. Экономия - жуть!
Тож купил скрипт не давно - оправдывается на раз. Но вот Поручик - сдается мне что после изменения в xap движка, скрипт перестал работать. У меня второй день уже не хочет выполняться - вываливается когда переходит к проверке. Может посмотришь и подправишь в случае чего? А потом раскинешь обновления?