mas7777

mas7777
Рейтинг
93
Регистрация
06.11.2006

Да многие бесплатные скрипты были с дырами, многие только отсылали служебную инфу (так как я уже почти за 2 года переюзал различные скрипты и проблем не было, это относиться к тем которые я скачал с официальных сайтов), а вот если кто то выкидывает скриптик с комментарием "я мол его чуть доработал" вот тогда и появляются большие дыры ) помню как мутили с scanerlink и пока разработчик не зазендил его проблемы не прекращались. Сейчас "левые" скрипты с дырами выпустили под vetton links, так что будьте осторожны. Скажу одно, что все бесплатные скрипты, это подвох, так как работа вложенная в них ну не может быть расценена как подарок, значит есть то, что этот скрипт может получать, парой ценней денег уплаченных за него.

Этот ап меня обрадовал, так как перекрыл неприятный осадок от апа 17 числа! Позиции преимущественно в +, а это радует. Так что мои опасения о введении некого нового фильтра не оправдались, и на том спасибо )))

Сегодня сделал заказ баннера у DimaOD.

Во первых цены очень доступные.

Во вторых очень быстро всё сделано.

Автор проявил творческий подход к созданию баннера что не могло не порадовать.

Буду ещё делать заказы. Спасибо

В своё время ко мне пришло сообщение от конкурента по тематике с предложением купить его сайт с указанием по каким ключевикам сайт был в ТОПе, цена была назначена огромная, и что примечательно в Евро. Я понаблюдал за сайтом, со слов продавца желающих его купить было много, но через месяц, другой естественно ссылки не были проплачены и сайт рухнул, так что если и кто-то купил его, то это была ошибка, и продавец просто воспользовался незнанием человека о продвижении сайтов.

В принципе аренда возможна, если она дешевле индивидуального продвижения.

Реально каталогов очень много, но в основном многие из них созданы для накачки (бэки, ТИЦ), и естественно далеко не белые. Но уже всё больше появляется изначально белых каталогов, рассчитанных на заработки контекстом, так что они нам и нужны. Сколько их? Несколько тысяч, это максимум. Из них каждый месяц - 200-300 штук уходит (ошибки скриптов, сбои серверов, бан и т.д.). Так что нет идеальных баз, а без обновлений через месяц –другой любая даже самая дорогая база будет лишь кучей url…

тИЦ обновляется достаточно редко, раз в 3-4 месяца, но бывают и исключения, вот в декабре-январе ждите )))

Мне интересно узнать о качестве базы, может разместите её шифр для ознакомления?

Интересная тема, много мнений, это очень хорошо.

Но будет всегда спор заказчиков и исполнителей, очень сложно найти на все 100% устраивающее обе стороны, так как тут в реальной жизни мало кому веришь, и друзья кидают, а что говорить про человека с бескрайнего инета!?...

Оплату за дизайн я перевожу с кодом протекции который передаю после получения макета (проекты не дорогие так что вероятность обмана крайне низкая)

Оплату за продвижение как я уже писал думаю стоит вносить с покрытием ссылочного бюджета + некий %, а после достижения результата полная сумма, так сказать точка безубыточности, как на это посмотрит заказчик, вопрос совершенно другой. Естественно с тех кого я знаю, предоплату брать не стоит, но всё же частичное (если нет свободных денег) покрытие ссылочного бюджета беру, но это уже по договоренности.

Абсолютно застраховаться я думаю никому не представляется возможным, но будьте осторожны и поменьше плохих заказчиков на нашем пути, удачи

Из дешевых скриптов могу выделить scanerlink , скрипт вполне неплохой, и выполняет свои функции, хотя его нужно модерировать, а если говорить про тот которым я сейчас пользуюсь то это scripto он дороже но и значительнее удобней (скажу так что с индексацией проблем нет) да и возможности автоматической модерации радуют. За несколько лет перепробовал наверное все скрипты которые продавались но идеального ничего не бывает, а заказывать дорого да и продукт явно будет сырым.

В продолжении темы каталогов, набрёл на статейку, статья вполне интересная и так как она размещена на сайте с которого продают каталоги, я не хочу их пиарить, вот вставлю её как цитату

Надо признать, что прошлые победные реляции об обнаруженных "алгоритмах", оказались мягко говоря, преждевременными. Два наших эксперементальных домена отправились в бан так же как и внутренние папки на действующих сайтах. Копирайтов и стоп-слов там не было вообще - это были эксперементальные версии движка, лишённые всяких, казалось бы, намёков на каталоги.
При этом, схема всегда одна - 100% индексации в первый раз, т.е. полный проход по каталогу известным поисковиком, далее 0% индексации, т.е. бан. Таким образом, очевидно копирайт ни на что не влияет и не учитывается при определении "каталог" / "не каталог". Это было бы слишком просто :(
Каковы же критерии определения "каталог" / "не каталог" со стороны известного поисковика, который не в состоянии держать нагрузку?
Мы отследили ряд каталогов, по поводу которых к нам обращались наши клиенты за техподдержкой. У их кривых хостеров не работал mod_rewrite и им пришлось отключить поддержку статики. Все их каталоги имеют 90% индексации.
Отсюда совершенно очевидный вывод - А не слишком ли мы все увлеклись статичными страницами? А не слишком ли быстро мы бежим? (Приключения принца Флоризеля)
Все почти движкит каталогов формируют на основе модреврайта тясячи страниц в одной папке, которых реально не существует. Таким образом "супер-алгоритм" может быть сведён к очень простой операции опознания каталогов вне зависимости от разработчиков и копирайтов, по одной лишь формуле - а скока у вас страниц в одной прапке? Тысяча? Да такого быть не может на нормальном сайте! Значит каталог. Логика проста и убойна своей тупизной. Но с ней можно бороться. И легко - достаточно отключить формирование статичных страниц, как бы в это не было сложно поверить. Купите новый домен для любого движка и попрорбуйте сами... Мы уже пробовали.
С другой стороны, есть ряд движков каталогов (преимущественно буржуйских вроде Движок WSN ), которые не смотря на "алгоритмы" имеют 100% индексации даже с использованием мод_реврайта. А почему? Анализ показывает, что буржуи куда умнее того поисковика, о котором даже не слышали - под мод_реврайтом формируются страницы отнюдь не в одной папке. Каталог имеет структуру максимально приближённую к реальному сайту, т.е. много папок, а в них мало страниц.
В общем, хотите верьте, хотите проверьте, но уже готовится к выходу проект Sc@nerlink Stealth. Цель - создание индексируемого не смотря на "алгоритмы" каталога, и полный обход (без взлома) всех алгоритмов и прилад одного пока ещё известного поисковика.

Всё бы хорошо, и мы опять в дамках как всегда, но встаёт один мааааленький такой вопросик конфликта интересов. А кому всё это надо? Мы раньше часто получали вопросы "а как бы мне так сделать каталог не индексируемым и чтобы об этом ни кто не знал?". Теперь этих вопросов нет - на помощь не честным людям пришёл большой друг всех варёзов и жуликов - некий поисковик на последнюю букву алфавита. Владелец каталога теперь имеет бэки а его юзера не имеют ни чего. Правда продать рекламу на неиндексируемых страницах не всегда легко, но это уже дело десятое.

Конечно, рано или поздно, зодчие Тындекса напридумывают новых "алгоритмов". Например, будут подсчитывать не страницы в папке а всего страниц на сайте и некое магическое число при выходе за которое индексация или прекращается совсем или происходит как нить криво. Вот больше 1000 страниц у вас на сайте - добро пожаловать в бан. Маразм. А что делать? На сервера то у Яши денег нет.
В этой ситуации путь у вебмастера каталога, который хочет сохранить индексацию (например для продажи платных ссылок) это резкое уменьшение базы ссылок (много менее тысячи на один каталог) при улучшении их качества. Особенно качества бэков. Здесь надо не только ограничивать включение ссылок по формальным параметрам, но и тщательнее контролировать бэки. Особенно по индексации поисковиками. Возможно проверять по нескольким разным поисковикам. И уш точно не ставить по 10 каталогов на один сайт. Желательно резко ограничить взаиможействие с системами автодобавления, т.к. бэков большинство из них не даёт вообще ни каких.
В этой связи интересно направление по созданию общей анти-спам базы. Если вебмастер хоть раз убрал страницу с бэками или обманул хоть кого то, то добавить тот же сайт он уже не сможет ни в один из каталогов на данном движке. А может быть даже и в каталоги на других движках (в далёкой перспективе). Что приведёт к резкому снижению потока мусорного трафика и затрат мощностей на проверку всякого спама.
Всего: 386