schegloff

schegloff
Рейтинг
178
Регистрация
25.08.2008
Интересы
футбол, интернет
Лагода:
Скачивать архивы пока, к сожалению, нельзя. Нет такой опции.

а планируется? хотя бы аудиоверсии?

давненько такого благостного апдейта не было.

savage:
Жесть - по одному из сильных запросов один из клиентских сайтов болтался на 10-13 позициях и улетел в никуда. Причем ничего криминального не делалось. Надеюсь вернется - будем ждать утра.
В предвкушении интересного апдейта...

+1

десятьплюсадинов

meraleks:
2. Под каждой страницей располагаются ссылки на нее загруженные.

Если ссылок больше/меньше чем страниц, нужно как-то отображать, что 10 ссылок - лишние или на 10 страниц не хватило по одной ссылке. не всегда точное количество страниц сайта просто достать.

meraleks:
3. Изменить ссылку можно просто ее отредактировав в программе.

По интерфейсу это непонятно. К тому же Ctrl+Z не работает приредактировании.

meraleks:
4. См. п.1, Это произойдет если урлы будут разными, т.е. будут вести на разные страницы одного сайта.

Есть сайт-донор А и три сайта-акцептора Б, В, Г. Нужно проставить с каждой страницы сайта А по одной ссылке на каждый из сайтов, т.е. сделать 3 динамических сквозняка. Все ссылки - на разные урлы. В этом случае программа может проставить 3 ссылки с одной страницы на три разных УРЛа, скажем, сайта Б, а это неправильно.

Поставил линкатор на одностраничный сайт. Пока заметил следующие баги/неудобства:

1. Независимо от значения "Links Per Page" выставляется одна ссылка на страницу.

2. Нигде не отображается список загруженных ссылок

3. Нет возможности изменить ссылку на странице

4. Есть 3 сайта, на которые должны быть ссылки с каждой страницы. Сейчас, я так понимаю, система раскидает их рандомно и может получиться, что с какой-нибудь страницы пойдет три ссылки на один и тот же сайт.

PS "Browse" пишется через o :)

была задача вытолкнуть из десятки по НК НЧ 2 сайта, находившихся на 3 и 5 местах. для этого в пульте были куплены ссылки с бюджетом 25р. на 10 рандомных сайтов из первой двадцатки. из ручных фильтров поставил только ограничению по возрасту и кол-во внешних.

за 2-3 недели в топ-10 остался только один ненужный сайт и то на 9 месте, но через пару апдейтов оба сайта вернулись уже на 2 и 3 место. глубочайше опечален :(

Я так понимаю, каждый раз при загрузке страницы со скриптом открывается текстовый файл со списком анкоров и из них достается нужный? Не будет ли такая схема работы тормозить на большом сайте? Все-таки текстовые файлы - не самый производительный вариант.

ЗЫ Взял бы потестить, да репа не позволяет.

sokol_jack:
Есть бесплатные варианты.
Надо только немного подумать, что надо менять, чтобы получать опять 1000 запросов. С того же ИП, ясное дело.

Т.е. существует возможность каким-то образом получить 2000 запросов к Яндекс.XML в день, не меняя IP?

Доступ к сервису XML на коммерческих условиях больше не предоставляется.
Однако если Вы заинтересованы в использовании этого сервиса,
мы готовы предложить Вам не только результаты поиска на Вашем сайте, но и
возможность заработать – для этого Вам надо стать нашим партнером по Рекламной
сети Яндекса (http://partner.yandex.ru/). В этом случае Вы сможете задавать
более 1000 запросов в сутки бесплатно, при условии соблюдения некоторых правил
(http://help.yandex.ru/xml/licence.xml).

Писал им полгода назад.

прикольно. по одному из трех ключевых запросов сайт вылетел из десятки в двадцатку с нпс и сниппетом из яки. по двум другим все нормально. страница по ним продвигается одна.

Всего: 757