XPraptor

XPraptor
Рейтинг
333
Регистрация
15.10.2004
Должность
Web Soft Developer
Интересы
Programming
T.R.O.N:
одно не исключает другое, как вы понимаете.
я тольок высказал свое видение.

А я конечно и не утверждаю, что модеры не смотрят на уже имеющийся ТИц при приеме в кат. Просто сам тиц не показатель приема, а как ему и следует - дутая пузомерка. (Хотя кто их знает этих модеров, на что они там смотрят :) ).

T.R.O.N:
А как Вы думаете, как считается тИЦ для сайтов, которые в каталоге? Какой вес (тИЦ) сайту передается по ссылке.
1. Чтобы расчитать тИЦ для сайта, нужно знать тИЦ сайтов -донаров.
2. Сайт с приличным тИЦ - претенднт на влючение в ЯК.

T.R.O.N. - Сгоряча :)

У меня кучу сайтов брали в каталог после первой индексации (спустя 7 дней после выкладки сайта в нете) и конечно там и в помине не было ни бэков ни ТИц-а.

А платники вообще в первый день брали (в первый день заявка, на третий день ответ что берем).

Смысла у ТИц-а нет скрытого - он то, что есть, а именно пузомерка для визуального отличя сайта среди многих таких же. Чтобы показать как его любят другие сайты, что ли.

У меня ни на одном сайте никогда не было и не будет кнопки тица, каким бы большим он не был. Думаю, что и у большинства здесь собравшихся тоже. Так что задача рекламы - это смутно. А вот с MaxMar скорее соглашусь - дань моде, чтобы не отстать от остальных поисковиков, скорее да. Нужно предоставить общественности какой либо ползунок, который хоть как то отражает рейтинг сайта среди прочих.

Если склейка и есть, то определено для конкретного набора слов. Пару моих старых престарых досок, цитируют более 1500 сайтов. Соответственно ссылки стоят такие, как и у меня на досках - заголовки объявлений.

По любому из этих заголовков мои на первом месте. По 1500 одинаоковых 3-4 словных анкоров более, чем на 200 страниц и все они первые. Если по ним была бы склейка, то вылетел бы как пить дать (хотя бы по 50% анкоров).

JoJoJo - оно не то, чтобы лучше, просто читабельнее. У вас одиночные параметры, это не вредит ни поисковику, ни странице, только внешний вид для людей немного портит. Приведите к виду www.aaa.ru/services.html www.aaa.ru/abouts.html и станет просто красивее смотреться. При этом в .htaccess для модреврайта ставьте обработку:

RewriteEngine On

RewriteBase /

RewriteRule ^services.html /index.php?page=services

RewriteRule ^abouts.html /index.php?page=abouts

В принципе можно одним регулярным отловить все имена, но я не мастак их писать. Попросите спецов на любом форуме, они вам напишут строку, которая отлавливает имена страниц и подставляет их в ваш параметр ?page=

А на счет роботов - не заморачивайтесь. Есть тлько несколько параметров для разных поисковиков, которые они игнорят. (В помощи к каждому поисковику они описаны). Для гугла это &id= и т.д.

Прикололо:


2. Гарантированная ананимность подключения при просмотре веб-страниц, отсылке почты, использования любого интернет-пейджера (icq, msn, etc.) и вообще любой программы, которая предполагает подключение к интернету.
3. 100% скрытие всех логов вашей активности в сети интернет.

А потом:

На сервере, предоставляющем услугу, ведутся логи! Все незаконные действия будут выявлены и переданы для дальнейшего разбирательства в соответсвующие органы.

:)

юни:
Верно. Ввиду большей массы ссылок в ксапе (чем в других биржах) это особенно актуально, при работе со скриптами, автоматизирующими их удаление.

XPraptor, нет данных по изменению позиций?

Пока еще рановато. Но в течение текущего апа пока только в плюс (работы ведуться правда, поэтому объяективно не смогу сказать повлияет или нет снятие временно битых ссылок).

На счет добавления в индекс - так там основная масса и не добавиться - они очень неприличного вида (с сессиями, ИД без параметров, временные и пр.) Может процентов 15 и добавятся в индекс, но это не факт, что они не выпадут в следующий ап. А напрягать Я еще и добавлением - тут не хватает запросов на проверку.

В принципе при таких огромных количествах, как у меня, обновление ссылочного нормально скажется, держаться не стану за каждую страницу (при чем с неизвестными параметрами).

А как оно могло отразиться то? Этих страниц с линками не было проиндексировано в Я.

Сенкс Поручику, разобрались. Выпадал потому что на виртуальном хостинге стоит кэширующий сервер и он не дожидался ответа от скрипта в компаниях с большим количеством ссылок и закрывал соединение. Все компании до 2000 ссылок проскачили его нормально, но когда я перешел на компании от 8000 до 20 000 ссылок, то тут он и вываливаться начал. Пришлось запускать с локалки и кушать свой траф любимый.

Скриптец советую юзать всем, кто в ксапе покупает линки. Стоит всего 30, а мне на третий день вернулось уже 100 000 ксапов (а это 72 убитых енота). То, есть окупился он у меня уже в конце первого дня. :) А еще и 30% не проверено от всех компаний. Экономия - жуть!

Тож купил скрипт не давно - оправдывается на раз. Но вот Поручик - сдается мне что после изменения в xap движка, скрипт перестал работать. У меня второй день уже не хочет выполняться - вываливается когда переходит к проверке. Может посмотришь и подправишь в случае чего? А потом раскинешь обновления?

Всего: 3323