- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
меня вполне устраивает бесплатный плагин дя файрфокса, или это не то?
меня вполне устраивает бесплатный плагин дя файрфокса, или это не то?
+1 пользуюсь плагином. Может я просто не понял отличий? :)
stabuev, Domenin, там немного не то. да на начальном этапе плагин очень сокращает трудозатраты, но с течением времени параметры площадок меняются. К примеру было закуплено по фильтру "PR2 <5ВС" некоторое количество ссылок. Через месяц параметры некоторых сайтов вышли за рамки этого фильтра и вы продолжаете платить за ссылку с "PR0 12ВС" как за "PR2 <5ВН".
Ладно если ссылок 100-200, а если их гораздо больше? Вот для того такие примочки и существуют, ввел параметры, прога чекбоксы пометила, ваше дело принять решение, то ли сразу жать на кнопку "отменить", то ли ручками еще посмотреть.
kapow_expert, вот тут описан способ как получить статистику ЛИ по посещаемости (где установлен счетчик, естественно). для меня было бы интересно фильтровать доноры по такому параметру.
1. Проверка уникальности текста на сайте, который ссылается
2. Проверка местоположения ссылки на странице для суеверных
3. Определение тематики страницы донора и акцептора. Фильтр на неподходящие.
4. Определение статического веса страницы (хотя бы внутренний вес. внешний будет сложновато.)
...
Позволю себе ИМХО:
1) Действительно грозился реализовать сеопульт
2) Действительно для суеверных, да и тольку, имхо, ноль :)
3) Определять тематику по ЯК и ДМОЗ фигня - банально мало площадок под нужную тематику, а брать размытую с верхних уровней, то же, что и не брать вообще. Определять тематику самостоятельно... ну, над этим участники РОМИП не первый год бьются :)
4) Обломайтесь :) Тут говорю с некоторым знанием дела (см. подпись) Скорость индексации десктопного приложения крайне низкая, серверного на порядки выше, но все равно не то. Сайт сайту рознь, и для индексации сайта на 100К страниц и более может уйти сутки. При массовой покупке и проверке ссылок (от 1000 и более) отбор с учетом внутренней развесовки займет очень много времени.
Коллега, вопрос на засыпку. Вот Вы идеи по функционалу написали, подсчитайте количество запросов к Яндексу (индексация, проверка уникальности контента, определение тематики и т.д.). Это не 3 обращения, а 30 и более. Теперь прикинем среднему обывателю надо проверить 100.000 ссылок (наверное ежедневно, хотя...). Это вы 3 млн. запросов к поисковичку с его личного ip зарядите (в один поток :))? Либо забанят юзера, либо процесс займет 833 часа, что долго.
P.S. Допускаю, что понимаете как оптимизировать процесс. А если умеете уходить от бана ip - вообще вопрос снимаю :)
Коллега, вопрос на засыпку. Вот Вы идеи по функционалу написали, подсчитайте количество запросов к Яндексу (индексация, проверка уникальности контента, определение тематики и т.д.). Это не 3 обращения, а 30 и более. Теперь прикинем среднему обывателю надо проверить 100.000 ссылок (наверное ежедневно, хотя...). Это вы 3 млн. запросов к поисковичку с его личного ip зарядите (в один поток :))? Либо забанят юзера, либо процесс займет 833 часа, что долго.
P.S. Допускаю, что понимаете как оптимизировать процесс. А если умеете уходить от бана ip - вообще вопрос снимаю :)
Николай, вопрос по Пульту: у вас там не планируется реализовать для проверки доноров что-то типа
1) проверки исходящие на блочность (как-то это возможно вообще??)
2) проверки исходящие на тематику - в смысле что если ведут на порнуху чтоб нафиг их сразу (зачем рядом с такими стоять?), их в принципе можно хотя бы по маске урла отсекать (sex, xxx, adult и пр.)
3) проверка наличия/отсутствия контента на странице (про это вы кажется говорили), обязательно в совокупности с чеком на исходящие с этой страницы, в том числе внутренние, в том числе рекламные ссылки - актуально, ибо существует масса абсолютно не информативных страниц, с гугл-адсенсом, директом и пр. Недавно начал вручную доноров просматривать - ахнул=)
Извиняюсь перед ТС за обсуждение стороннего сервиса.
При массовой покупке и проверке ссылок (от 1000 и более) отбор с учетом внутренней развесовки займет очень много времени.
Абсолютно не так. На обработку сайта с 1 000 страниц в среднем, при хороших каналах, уходит максимум 8 минут (если сайт где то в антарктиде и пинг слабый) + анализ.. да.. с этим сложнее, на всё про всё 15 минут с одной машины. Сеопульт уже может позволить себе пару десятков (и наверное сотен, но.. вообще без но).., а у нас всего около 10 =( ну да ладно.. так вот это вполне реализуемая задача при прямых руках и хороших каналах.
Коллега, вопрос на засыпку. Вот Вы идеи по функционалу написали, подсчитайте количество запросов к Яндексу (индексация, проверка уникальности контента, определение тематики и т.д.). Это не 3 обращения, а 30 и более. Теперь прикинем среднему обывателю надо проверить 100.000 ссылок (наверное ежедневно, хотя...). Это вы 3 млн. запросов к поисковичку с его личного ip зарядите (в один поток )? Либо забанят юзера, либо процесс займет 833 часа, что долго.
С этим справиться всего навсего 100 IP и пол года опыта в настройке и отладке. За час - в лёгкую ;)
зы. пока конкуренты считают ссылки на страницах, мы проводим эксперименты с переменной успешностью в определение кластеров
Абсолютно не так. На обработку сайта с 1 000 страниц в среднем, при хороших каналах, уходит максимум 8 минут (если сайт где то в антарктиде и пинг слабый) + анализ.. да.. с этим сложнее, на всё про всё 15 минут с одной машины.
Угу 15 минут умножаем на 1000 проверяемых страниц с разных сайтов = 250 часов или 10 суток без перерыва. Из этой тысячи в итоге отобрали и купили 300 штук, и загнали следующую тысячу на проверку ... и т.д. :)
Угу 15 минут умножаем на 1000 проверяемых страниц с разных сайтов = 250 часов или 10 суток без перерыва. Из этой тысячи в итоге отобрали и купили 300 штук, и загнали следующую тысячу на проверку ... и т.д.
Не 15 минут на страницу, а 15 минут на 1000 страниц при самых скверных параметрах забора. На 500 000 с одного источника (50 потоков, машина держит 5-10x50) уходит около 10 часов, с поверхностным анализом.. речи не идёт о заумных формулах, просто статистика получаемая от ПС, перелинковки и соотношений внутренних и внешних.
Далее.. никакая биржа тайн не откроет насчёт ID страниц. Методом тыка (по ИМХО парсера/индексатора) и исключительно на свои аккануты, а верен ли этот подход? Стоит определять не работчие площадки, а в первую очередь исключать НЕ рабочие сразу на подлёте. Суммируя факторы можно определить рабочие площадки в не зависимости от происхождения ссылки.. будь то каталог или статья на миралинксе.
Если учесть, что известных Яндексу в рунете, да на данный момент.. цифры меняются, да и интересуют людей не все, а там где можно получить бодрую ссылку, в первую очередь эти плавающие на уровне 150к доменов, участвующих в линк биржах; кластеры статей и ЯК.. собственно это на самом деле не так сложно, ограничения лишь в ресурсах.
Нужна конкретика ? Будет вам конкретика года через половинку =) Мы не спешим, развиваемся по графику.
зы. да и вообще.. большинству YAP,YAL и больше ничего не надо для оценки донора.. мало того, для многих это открытие.., мне не понять, как и некоторым.. в этом мы просчитались, вперёд паравоза полезли =)