приобрел программу через дилера Fluffyelf, все четко и быстро и дешего, оплатил и получил откат переплаченных средств.
Сегодня приобрел allsubmitter вместе с базой, скидку получил даже больше чем планировалось. И даже не смотря на проблемы с почтой с моей стороны ключ был быстро выслан на другую указанную почту. Всем кто хочет приобрести программы у данного продавца, советую это сделать, все быстро и качественно.
Единственный минус пока, это косяки с экспортом в excel, в еррор отписал все, но пока все также.
Отличный сервис , быстренько .красивенько и хорошая гибкость настроек.
Главное , чтобы он не пропал и не стал платным.
Ну не 10 000, но сути мысли не меняет. Мнение большинства, хоть и простых ламеров, должно учитываться в ценности сайта.
Учитывая любовь яндекса к борьбе с сеошниками, то не удивлюсь, что не активные ссылки будут учитываться, но активная ссылка по определению должна иметь больший вес, это просто 100%, изначально обсуждали же, что не активные ссылки стали иметь больший вес, чем раньше.
То есть 10 000_чам неактивных ссылок можно противопоставить 100 ссылкам активным ? А как же народная любовь ? =)
По логике сайт полезен пользователям. вот на их мнение и стоит опираться.
ну в скорости индексации эти ссылки не участвуют, это 100% (ИМХО), вот если они участвуют в наращивании ТИЦ, то это уже более близко к дружественному людям поиску.
Логично было бы подумать, что так и должно быть. так-как люди чаще ставят просто название сайта, по типа:
strateg.su, а не заморачиваются на добавлении http или www, а тем более анкоров к ним.
Да и сейчас часто стали блочить ссылки с http или www, дабы избежать спам-ботов и в результате все вставляют просто текст не делая его ссылкой. Ну и часто можно в графе - источник, увидеть просто не ссылкой адрес сайта, а текстом. Остается надеяться, что яндекс стал думать о владельцах сайтов, а не делать из них клиентов seo-компаний.
По поводу быстрой индексации - думаю это не поможет.
Например: домену не больше 3 недель , через 2 недели существования пришел яндекс проиндексил 10 страниц и ушел ,робот заходит раз в 2 дня ,но пока прибавилось еще 4 страницы , но в индекс не попали. Ссылки почти не расставлял.
Так еще порция багтреков =)
Все таки капча не отстает , даже если проверяю по 1 запросу , то есть в начале работы 20 - 30 кеев проверяются нормально, но потом что бы не делал вылезает капча, а точнее по 2 капчи на 1 кей.
так же прога иногда жестко зависает, в частности это происходят на запросах маленькой длины (почему то уловил такую тенденцию), то есть нажимаю проверить, и прога думает , потом начинает лагать компьютер и приходиться убивать прогу через диспетчер задач.
*25 работает шустрее чем *22 , но как то мне кажется фраз меньше находит , в *22 больше в разы было.
и что-нибудь с капчей можно сделать ? А то уже не могу ее видеть =)