Нано-ватсон

Нано-ватсон
Рейтинг
68
Регистрация
30.11.2010
noosfera:
датот правильно написал

а с чего такая уверенность?

Судя по моим наблюдениям биржевые ссылки продолжают неплохо работать. Ну а ВК запросы типа ноутбуки, банки и т.п. тянуть вверх сложновато. Ведь для многих бюджет - это стоимость ссылок конкурентов, закупил на ту же сумму и сразу же вопросы, а когда я увижу себя в топе??? а то, что сайт нужно сделать информативным, интересным и юзабильным как бы в стоимость не входит почемута. А ведь здесь затраты то неслабые

G00DMAN:
Яндекс не использует всю статистику LI. Возможно, что есть всего какой-то один спец. запрос, по которому LI сливает часть параметров, и все. Может он даже всем известный, кроме меня. Но это не "values?site=".

значит вы утверждаете, что яндекс использует, но не всю?

KonovalovD:
а какой смысл тратить 1200 руб. в год за говноссылку в футере на хорошем сайте, ежели за эти же 1200 руб. можно купить недурственную статью + разместить навсегда на не менее отличном сайте, что явно на порядок интересней в выдаче будет..

тот кто продвигает для себя, тот так тоже делает, но только есть ли в топе сайты только за счет статей? плюс не забывайте, ваши - это долгосрочные инвестиции, а у тех - краткосрочные но с возможным быстрым эффектом. Разницу улавливаете? получится у вас сразу же закупить к примеру 500 статей за 1200? а вот на полторы штуки баксов в месяц, при чем с первым целевым трафом по НЧ уже через 5-7 недель - можно и даже логично потратиться:).

я так и не понял, вы собираете свой индекс или парсите яху?

Белый Ум:
В том то и дело что из алгоритмов ранжирвания этой системе будет нужен только один - Гугл Пр.
Оромная ценность. Представьте себе, что вы имеете доступ к вебмастеру всех сайтов на свете.

только он? а как же текстовые метрики, тематические связи и т.п.? И вы уверены что сможете построить Гугл ПР так же как к примеру это делает яндекс? учтете все фильтры и динамические нюансы поисковика.

Как бы не получилась туфта, с которой потом не понятно было бы что делать.

Ну а в целом параметров много нужно. Тематика, текстовых метрик штук 50, и все равно без парсинга ПС не обойтись, а то херня получится (индекс, региональность, дата простановки ссылки, и т.п.)

И хранить индекс (хотя бы снимая его раз в две недели) нужно минимум за три месяца (а лучше и больше), без динамики совсем неправильным будет поисковичок ваш.

Готовьте серьезные инвестиции на разработку, (даже для поиска по сапе немалые) и запоситесь временем:)

Может быть внутренняя страница фильтруется за излишнюю переоптимизацию? и если так, то стоит тогда чуть её уменьшить.

Nat_SeoPult:
Нано-ватсон, Система SeoPult снимает позиции по google.com.ua, возможность выбора региона пока существует только для Яндекса - выбирайте Киев, Харьков, Одессу или любой другой город в профиле проекта.

спасибо, просто изначально из ответа казалось что и под гугл-Киев, гугл-Харьков, гугл-Одессу система тоже снимает позиции:(.

Скажите а если я буду продвигать под яндекс.ua сеопульт купит мне ссылки только с украинских доноров?

nickspring:
ЗЫ. Клоны атакают? Специально под нашу нано-тему сделали вчера нано-аккаунт?

вы слишком льстите себе, до драйвлинка мне нет особых дел. Я написал что думаю. В ответ я слышу (возможно мне так кажется) ваши надменные реплики, что не красит вас, как человека, официально представляющего сервис на серче, да еще и в самом ходовом месте.

Dimoha:
если вы делаете не "проверку заявок", а "покупку ссылок", то вы платите только комиссию за уже найденные ссылки. за проверку неподходящих ссылок и т.д. оплаты нет.

мне не интересна работа с "покупокой ссылок" (мне совсем не сдались те фильтры, которые у системы при "покупке"), интересна только работа с заявками!!

nickspring:
Ну да, "ооочень" много. 100 ссылок по 3 рубля в среднем, это 30 рублей единоразово Вы потратите т.е. 10%.

Таким образом обладая 2000 заявками в день и вашими 30 параметрами на выходе получается ...:). С математикой у вас как, или мне посчитать сколько денег возьмет система? Ну и сколько в итоге закупится по более менее жестким фильтрам? (у меня всего 10-30ссылок, не более и без вас) .

nickspring:
Ну не смешите Вы народ. Всех интересует в первую очередь индексация (речь об оптимизаторах, конечно же). Для ее быстрой проверки в больших объемах требуются технические ресурсы и поддержка, как минимум. Посчитайте сами сколько потребуется конкретно "немного времени", чтобы проверить, например, 36000 ссылок на индексацию с задержкой 1 с в плагине винка... 10 часов. Это "немного"??? Я как выше не хамил, так и не сейчас не делаю этого.

по моему вы не только хамите, вы тупите "батенька" или специально включаете дурака. Так вот, при работе с тем же самым винком вам любой оптимизатор скажет, что индексация его интересует в самую последнюю очередь, и она не требует больших ресурсов, так как основная часть отсеится еще до проверки на индексацию в яндексе. Или мне вам про порядок включения фильтров рассказать:)? (кстати странно, что эта тема почему то так до сих пор и не поднималась здесь)

nickspring:
А с ручным китайским трудом мы и не собирались конкурировать. Всем понятно, что больше 1-2 проектов плагином никто не проверяет регулярно. Я уж молчу о том, что работа с плагином требует участия человека, а человек зарплаты .

Я сам себе плачу зарплату, так что экономия для меня еще более актуальна. Для работы с один-двумя проектами по вполне неплохим фильтрам (что у вас в заявках, а не с теми простенькими, что при работе с покупкой) винк имхо видится мне гораздо экономичнее, тем более что до агрегаторов вам еще работать и работать, ибо нормальных дополнительных опций, автоматизирующих процесс продвижения нет и в помине. А вот для крупных дядек, при работе с большим объемом ссылочного, прогнозировать закупку, набирать ссылочную массу и уж тем более иметь вменяемую отчетность, ставить цели и считать бюджеты для них и т.п. вы так и не предоставляете. Более того, процесс набора ссылочной массы кажется мне еще более геморным, тут и на два проекта не знаешь сколько ссылок купишь, а на двадцать так совсем..:( а теперь плавно передем к следующему -

А что проверять заранее?

здесь вопрос больше идеологии системы и концепта работы с сапой. Если речь о стоп словах, и прочей канители, то тут понятно что не стоит сильно морочиться, зато есть другие параметры, которые крайне важны, которых нет в сапе и в её фильтрах, но которые предоставляете вы в заявках(думаю именно они интересны больше всего). Чтобы угадать и хоть как то повысить процент прошедших фильтрацию заявок приходится химичить и регулярно подкручивать фильтры в сапе и перезапускать их еще разок, повысив кол-во заявок, иначе можно постареть в поисках нужных ссылок. В итоге вы поманили нас красивыми фильтрами, но в покупку их не вставили, а при работе с заявками по ним получается то, что уже выше описано, что совсем не кашерно как для мелких оптимизаторов, так и для крупных.

holy_androny:
Просто отсутствующие страницы или мёртвые ссылки, поисковик их сам исключает с индекса и всё.

а почему поисковик а не вы? влиять может плохо.

Всего: 114