Sapega

Sapega
Рейтинг
68
Регистрация
09.02.2009

Ищите и обрящите...

Движок простой как грабли, необходимо всего лишь понять некоторые основные принципы, и тогда все окажется совсем простым. Честно сказать, не хочется со всем этим возиться, тем более, на ночь глядя, но по первому пункту помогу. Надо отредактировать файл posting_body.tpl. Верстка там табличная, т.е. необходимо добавить всего одну строку в таблицу, в которую и влепить нужный Вам HTML-код. Не забудьте учесть стиль для ячейки. А так, если что кричите в личку. Будет время, помогу.

Что-то совсем я не пойму этих разработчиков. Вместо того, чтобы апнуть тему, для продажи пару лишних копий проги, пропали неизвестно куда и здесь практически не появляются. А жаль, ведь прога действительно имеет потенциал, и мне, как человеку, заплатившему деньги, хочется все новых улучшений и дополнений. Хочется сказать, что с момента последнего появления здесь ТС вышли еще 2 новых версии. Вот выдержка из history-файла:

Версия 1.2.2

-Исправленны мелкие ошибки.

Редактор
* Системные переменные теперь подсвечиваются синим цветом;
* Если указано имя скрипта, то при добавлении GET или POST запроса в поле "Адрес страницы" будет автоматически добавляться текст http://имя_скрипта;
* Добавлены шаблоны;
* Добавлена возможность выбора программы для просмотра лога событий;
* Добавлена кнопка просмотра результатов последнего теста;
* Проверку скрипта перед сохранением теперь можно отключить;
- Исправлена ошибка при которой программа меняла значения длины тэгов и количества тегов местами при открытии и сохранении скрипта;
- Исправлена ошибка при которой программа не позволяла сохранять скрипт при использовании UTF-8 кодирования или при отказе от кодирования в многострочном POST запросе;
- Исправлена ошибка при которой все системные переменные в строке адреса GET и POST запросов автоматически переводились в нижний регистр, что приводило к их неработоспособности;
- Исправлены мелкие ошибки.

Версия 1.2.1

* Теперь программа будет разворачиваться из трея при закрытии редактора;
- Исправлена ошибка при которой стирались все команды из скриптов со значением тИЦ/PR (0/0) при их автоматическом обновлении;
- Исправлена ошибка при которой списки сервисов при их обновлении строились не с самого начала.

От себя хочу добавить то, что не указали разработчики:

* В последней версии произошло также и обновление данных для третьей части сервисов.

* Кроме того, обновление программы в автоматическом режиме, которое при некоторых конфигурациях происходило криво и приходилось скачивать вручную дистрибутив с офсайта, теперь происходит вполне корректно.

Из проблем, которые видел еще пару дней назад – это автоматическое обновление сервисов. Программа что-то грузила (108К), пыталась установить новые данные по сервисам, но реального обновления в результате не было. Может быть, это уже и исправлено в новой версии, но пока проверить возможности не было.

А эта не пойдет?

http://www.linking-the-web.com/linking-the-web.shtml

Вроде простая и бесплатная

На своих проектах пытаюсь делать так, чтобы не было уж слишком больших косяков в дизайне под IE6, хочется, чтобы во всех браузерах пользователь мог зайти на сайт и получить то, что ему надо. Использую хаки CSS, лишь там, где это действительно критично. Я не пытаюсь добиться полной кроссбраузерности в этом отношении, но, тем не менее, ИМХО конечно, никому не хочется говорить почти каждому десятому клиенту, что денег с них я не возьмут, потому что у них устаревший браузер. Но, в общем-то, каждый решает сам.

dvu-v:
В общем такая суть.
Нужно чтобы на сайте 404 ошибка обрабатывалась как на этом сайте, то есть без редиректа на отдельную страницу, адрес в строке не менялся.

Как здесь уже справедливо отметили, надо ковырять код CMS. Дело в том, что в CMS часто реализация обработки ошибок состоит в том, что идет редирект на главную страницу сайта или же на страницы разделов. Задача как раз и состоит в том, чтобы слегка подправить код обработки ошибки.

Например, так:


header('HTTP/1.1 404 Not Found');
include '404.html';
exit;

Где файл 404.html – это обычный html, созданный для удобства посетителей, в который мы можем вставить меню сайта, его основные разделы, поиск по сайту, инструкции для посетителей и многое другое.

Пользуюсь обычной доставкой.

Как правило чек всегда приходил 12-14 числа, а в этом месяце пришел 5 мая.

Извиняюсь, если кого обидел, но, по-моему, конструктивных предложений я высказал достаточно.

Что в настоящий момент представляет из себя прога? Прога умеет формировать динамический УРЛ для скачивания tsv-файла, за что автору респект, причем, могу сказать, что я в первый раз вижу прогу, которая действительно этим пользуется. В данном файле 4 столбца, прога умеет выбросить 1, 3 и 4 столбцы и оставить только второй. Прога умеет объединять множество текстовых файлов в один файл. И все. Больше ничего она не умеет. Многопоточность и прокси, могут лишь слегка ускорить работу проги. Что получаю на выходе: файл с горой непонятных ссылок.

Если то же самое я бы делал вручную, не используя прогу. Захожу через FireFox с SeoQuake в SiteExplorer. Для того, чтобы сформировать динамический линк для скачивания tsv-файла, выбираю последовательно Inlinks, Except from this domain и Entire Site. Получаю tsv-файл. Да, прога это делает практически моментально, но зато я при ручной работе могу хотя бы вскользь взглянуть на первую сотню выдачи, ведь зачастую (хотя и не факт), жирные линки сидят в первой сотне.

Можно потом скормить данный файл какому-нибудь сервису для определения параметров, полученных ссылок, но мое конструктивное предложение как раз и состоит в том, чтобы встроить подобное определение в саму прогу.

SeoNizator:
А что, через прокси разные результаты? Или как возможно получить больше 1к беков?

Прокси используется лишь для того, чтобы не забанили за частое обращение к сервису, выдача абсолютно одинаковая. Даже теоретически в tsv невозможно получить больше 1000 беков. Т.е. вся та же выдача, что и в SiteExplorer, только не надо смотреть все 10 страниц выдачи, а получается быстро и удобно для хранения лишь 1 файл.

ЗЫ. Да, забыл сразу написать. Если прогу довести до ума, вот как раз там и понадобятся и прокси, и многопоточность.

Потестил. Впечатления?...

Работает быстро. Использование tsv для скорости весьма поддерживаю, любая прога работающая в этой области ИМХО должна опционально уметь это делать, т.е. хочу парсю полную выдачу более 1000 линков (медленно), хочу только tsv (быстро). Использование прокси и многопоточность – это тоже хорошо.

Только на кой все это? На выходе получаем кучу несортированных линков, которые идут без всяких дополнительных параметров (хотя бы тИЦ и PR). Хватило бы всего по одному линку с каждого домена. Кодировка в линках могла бы быть приведена к нормальному виду, чтобы не делать это другими способами. Прокси оказываются при таком подходе также совсем не нужными, за 50 конкурентов меня никто даже не думал банить, да и прога без прокси работает куда быстрее.

ИМХО, конечно, но в настоящий момент представленная прога – это мусор.

olprokat:
/ru/forum/145697
Большое спасибо за помощь, кажется вот она! ☝🍻

Не все так однозначно. Если есть возможность, просмотрите процент посетителей, которые вообще не используют javascript. Вы будете удивлены, но этот процент окажется чуть больше Вашей разницы по LI и AdSense. Я думаю, что Вы понимаете, что, если нет javascript, то не будет и AdSense (даже резалки никакие не нужны), и предложенный метод не будет работать.

Подтверждаю, с базой действительно проблемы, слишком маленькая да еще при этом и не очень рабочая. Сервисы, в которых бы действительно хотел регистрироваться, чтобы получить какой-то реальный целевой траф, представлены очень слабо, причем один из них (Мистер Вонг) с программой никак не хочет работать. Сейчас ради интереса прогнал страничку, в результате успешных всего лишь 23 из 40 :(

Всего: 169