nickspring

nickspring
Рейтинг
228
Регистрация
29.03.2006
Должность
seo
metton:
Часто бывает ситуация, когда получаешь информацию в некий переходный период продвижения сайта: старые ссылки сняты, а новые ещё не проиндексировались. Имея данные по старым ссылкам, можно примерно оценить бюджет. При текущем же положении по каким-нибудь кондиционерам в сезон может вылезти бюджет в 100 баксов.

Бесполезная все-таки фича. Гораздо чаще бывает, что оптимизатор снял треть ссылок из-за непота :)

metton:
"Выводить не более одной ссылки с каждого сайта" - этот пункт отвечает за группировку?

Можно ли задать порядок обхода ПС? Например, сначала получаем Гугл, потом алеху и т.д.

Да. Нет.

MoMM:
В уголовном процессе - предоставить максимум значимых свидетельств в пользу клиента, проследить за соблюдением процедур в отношении обвиняемого, реализовать права обвиняемого, предотвратить предъявление свидетельств против обвиняемого, добытых с нарушением закона, выявить сфальсифицированнае свидетельства против обвиняемого. В ходе процесса построить тактику защиты обвиняемого

Ну а что в SEO разве не тоже самое? Осуществить максимум действий для наиболее высоких позиций и трафика, проследить за индексацией и ранжированием, корректировать позиции путем правки контента, изменения набора и анкоров внешних ссылок. Все это положительно сказывается на поисковом продвижении сайта, но ничего не гарантирует. Чем не аналогия? Несмотря на обязательность лицензирования, наличия в/о есть дела в которых Вам ничего не гарантируют. И вообще, я сомневаюсь, что в судебных делах, где вероятность выигрыша 50/50 Вам адвокат, имеющий высшее образование, лицензию и опыт что-то будет обещать и гаратировать (а если и будет, то только на словах).

Flector, 15 слов для Яндекса. Для Гугла фиг знает, но думаю не намного больше точно.

metton:
А вообще планируете? Или пока даже в план ставить не будете?

Пока не будем, есть более важные задачи - точность по определению индексации и непота, капча и т.п.

metton:
Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").

Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.

metton:
Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?

Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.

metton:
Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка?

Дай бог, нам вообще большую часть бэков в будущем получать... куда уж тут о порядке получения говорить.

metton:
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.

К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.

sanitarn:
НА сколько правильно работает НЕПОТ?

Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.

MVH:
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).

Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.

metton:
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.

К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.

sanitarn:
НА сколько правильно работает НЕПОТ?

Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.

MVH:
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).

Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.

Dmitriy78:
1) довольно медленно работает, дажа на выделенке. Чтобы оценить конкурента с 1000 ссылок надо будет ждать часа три.
2) инструкцию можно сделать и по информативней, учтя например вопросы-ответы в этой ветке форума

1. Работает сама по себе она достаточно быстро. Другое дело, что тулбарный Тиц с декабря отдается медленно - отчего работа замедляется. Работы по решению проблемы ведутся.

2. Какие именно инструкции?

Dmitriy78:
Фильтр по запросу? Наксколько я понимаю фильтр не будет учитывать слоформы, т.е. "оценкА недвижимости" и "оценкУ недвижимости" это для него запросы разные?

Фильтр уже давно еще до регулярок морфологический, выберутся и "оценка" и "оценку", короче все анкоры где слова идут в такой последовательности, но не обязательно подряд.

Dmitriy78, посмотрите повнимательней. Подсказки:

1. Siteexplorer и Siteexplorer XML могут отличаться.

2. Заявленные данные о кол-ве известных бэков не всегда отдаются яхой.

3. И наконец, яха не группирует бэки по сайтам, что делает язл по умолчанию.

aresstokrat:
нет, не ответили, стр.70, цитата

/ru/forum/comment/2793493

Будьте внимательны. Выбранный урл должен подгружаться... ВНИМАТЕЛЬНО смотрим ДАТУ которую выбрали для ссылок и что ОНА означает, заходим в САПЕ и считаем число ссылок в статусе ОК, которые поставлены ДО указанной даты. Может их совсем 0 таких :).

Всего: 3578