aryanatha

Рейтинг
98
Регистрация
18.12.2009

сейчас проверил накупленные в течение года ссылки.

во первых удивило количество тех, кто снял статьи ( примерно 5%), особенно те, кто не дождался 3-х месяцев. система пишет что этот вебмастер блокируется навсегда. я не понимаю вебмастеров - им что , так мешали мои ссылки что даже 3-хмесяце не могли потерпеть? просто любопытно... :) вебмастер гнилой блокируется или сайты его?

во вторых примерно столько же сайтов ( 5%) вдруг начало торговать ссылками с бирж

как система относится к таким случаям когда ты покупаешь ссылку на приличном ресурсе, а он идёт в разнос?

такие урлы

http://www.мой-сайт.ru/images/arki/thumb/arka%2087.jpg

программа видит как

http://www.мой-сайт.ru/images/arki/thumb/arka

и соответсвенно заносит в список битых. что мешает найти в этом списке действительно битые ссылки

aryanatha добавил 02-12-2011 в 04:53

программа учитывает страницы типа

/foto.html?gal=103

хотя в роботс.тхт прописано

Disallow: /foto.html?gal=

exp131:
Мы стараемся работать по стандартами W3C, а по ним картинка это такой же документ.

но нам не нужно скачивать этот документ, что бы понять что в этом документе нет ни одной ссылки ни внешней ни внутренней

exp131:
В общем случае не исключена ситуация когда вместо картинки будет страница (с ошибкой например) и тогда программа позволит ее поймать.

спасибо, наконец-то услышал хоть какое то логическое обоснование

Sterh:
Картинки качаются только когда есть конструкция <a href="123.jpg">

зачем???

Sterh:
Можно настроить в ограничениях не качать картинки, добавив .jpg, .gif, .png

почему это не прописано по умолчанию? вы можете назвать хоть одну причину по которой программе нужно качать картинки из инета?

как-то странно. старую ветку закрыли, Но ни в начале её, ни в конце не дали ссылку на новую - сотни людей вынуждены рыться теперь в результатах поиска...

В предыдущей ветке я так и не увидел ответа на мой, как мне кажется, важный вопрос:

зачем программа качает из инета картинки? трафик и время теряется. а смысла в скачивании картинки - ноль!

1. нафига качать эти картинки-страницы, если и так же понятно что это именно картинка и на ней не будет никаких ссылок ни внешних ни внутренних?
Sterh:
1. А это кому как. Кто считает, что не нужно подобные ссылки и страницы обрабатывать - закрывает их в настройках

я спросил именно нафига КАЧАТЬ?

я не против, что нужно ОБРАБАТЫВАТЬ такие страницы-картинки. ведь если вес сайта на неё утекает, то надо об этом знать и что-то по этому поводу думать

но зачем же ЗАКАЧИВАТЬ картинку из интернета (тратится время и трафик), если заведомо известно что со страницы-картинки ТОЧНО никаких ссылок уже не будет???

на странице сайта есть 20 preview картинок и скрип highslide, который при клике на маленькую картинку открывает в отдельном окошке эту же картинку но из файла значительно большего размера

<a class="highslide" onclick="return hs.expand(this)" href="images/foto/kupalniki-panache1676.jpg"><img src="images/foto/small/kupalniki-panache1676.jpg" /></a>

у меня инет медленный, поэтому хорошо заметен следующий факт:

ваша программа закачивает на комп все двадцать картинок jpg и это у неё получаются как бы отдельные страницы сайта

типа таких

/images/foto/kupalniki-panache1676.jpg

вопросы:

1. нафига качать эти картинки-страницы, если и так же понятно что это именно картинка и на ней не будет никаких ссылок ни внешних ни внутренних? это и по времени долго и трафика много уходит...

2. каждая такая картинка получается как бы отдельная страница сайта, на которую входит минимум одна ссылка, но не выходит ни одной. соответственно эта "страница" имеет свой вес, который как бы "пропадает". можете посоветовать способ как не передавать вес на такие картинки?

MadTomas, я как то посчитал сколько я времени трачу на "выбор с помощью плагина винка из того что мне предложили грамотные фильтры" и понял что мне дешевле заплатить автоматизированнной системе, даже если она несовершенна. время - деньги, и я могу потратить свое время на более полезные вещи чем ковыряние в гавноссылках с гавносайтов...

тем более что если бы это был одноразовый процесс, а то ведь периодически поглядываешь на проекты в сапе и обнаруживаешь что то что когда то было тщательно отобрано - щас нада по новой перелопачивать

по первому вопросу

Nat_SeoPult:
включается ручной режим простановки

гм, основное что мне нужно от сеопульта - что бы он пусть и не очень удачно, но все же выбирал автоматом ссылки хоть на что-то похожие из той кучи г, которую мне предлагают на сапе. если нет возможности пользоваться сеопультом плюс, то мне тогда уж проще сразу идти к первоисточнику - сапе, и там закупаться не переплачивая

по второму

мне не нужно уменьшать бюджеты в первом проекте, потому что я пока что там недоплачиваю, т.е. бюджеты ниже чем рекомендует система. это скорее тестовый проект. на нем я из 300 ключевых слов понял какие имеют перспективу, отобрал 100 самых интересных и теперь хотел бы вложить в них еще денег, но уже по системе плюс -макс

т.е. самый простой вариант - все таки сделать копию пробного проекта и потом переделать его и пусть оба проекта делают свое дело.

Nat_SeoPult:
сделать дубликат проекта нельзя

если это технически неосуществимо то может можно сделать экспорт настроек проекта существующего? сейчас есть уже на странице "СЛОВА" экспорт, и там много чего есть из того что мне нужно, кроме слов для простановки. руками опять забавать каждому из 100 слов нагенеренные мною анкоры не хочется. на странице "простановка" есть пакетное добавление нагенеренных слов. т.е. по сути не хватает только одного - например сделать экспорт из одного проекта нагенеренных слов для того что бы импортировать в другой

вопрос к создателям системы

хочу поэкспериментировать и накупить на сайт немного ссылок типа "здесь" "сюда" и прочее, но не вижу такой возможности, потомо что я не могу добавить несколько ключевых слов "здесь" в проект на разные страницы.

Что можете предложить?

есть конечно вариант к нужным мне словам нагенерить подобного рода ссылок в поместить их в "неточные вхождения" но не понятен принцип, по которому система покупает точные вхождения и неточные. поскольку я в основном по НЧ продвигаюсь, то на каждое слово бюджет не более 25-100р и большая часть система покупает именно из точных вхождений

второй вопрос

я хотел бы попробовать система Сеопульт плюс макс. у меня несколько проектов и в каждом много ключевых слов, и я долго морочился пока каждому слову подбирал релевантную страницу и прописывал руками нагенеренные тексты сслок (те что генерит система считаю неприемлимыми)

так вот мне было бы удобно создать по сути полную копию проекта для каждого моего сайта. я бы включил в этой копии режим Плюс Макс, половину слов я бы из не го выкинул, а самые важные слова , ВЧ и СЧ, продвигалбы с уже наастроенными параметрами и текстами ссылок.

Так вот вопрос - как сделать копию проекта? как то самому можно сделать или может можно попросить техподдержку?

Всего: 309