mark3000

mark3000
Рейтинг
115
Регистрация
29.08.2009

Ох, сколько... попробую ответить :)

- Насколько точно/адекватно/корректно софт считает внутренний вес относительно яндекса/гугла? Внешние факторы естесно во внимание не берем.

Я с полной уверенностью могу сказать что точного результата Вам сможет дать только сама ПС, так как о ее алгоритмах неизвестно никому (или почти никому). Адекватность да, возможно. Просто тут ведь важно не реально получаемый вес в цифровом исчислении, а видимое перетекание массы веса внутри сайта.

- То же самое, но относительно конкурента - page weight, насколько разнятся результаты по расчету веса?

Сказать трудно, до сих пор не попробовал в действии эту замечательную программу. По той простой причине, что не хочу сбивать цель. дело в том, что если попробую то буду знаком с функционалом и в дальнейшем обязательно буду думать "это там есть, а этого нет". У меня есть цель и я хочу ее достингуть, после этого ужу проведу сравнения, тем более что у PW вышли обновления, а у меня они будут через какое то время (Версия L4.1)

- Есть ли возможность эмулировать внешнее, ну типа как у того же page weight?

С этим предложением обращался один пользователь, предложив внести в дополнение список URL на которых имеется обратная ссылка. Идея мне понравилась и я предполагал, что такая функция могла бы появиться в версии 4.2.

- Какой лимит на кол-во страниц? У меня есть сайты магазинов по 10-20тыс страниц. Каков максимум?

В среднем до 5000 страниц, но тут главное скорее не количество страниц, а количество ссылок. Программа начинает подвисать примерно после 60 000. Оптимально думаю 50к.

- Каков лимит на общее кол-во ссылок, которое ваш софт может обработать не убив себя?

Просчет идет внутри компьютера, поэтому это зависит от "железа". Правда тут стоит учесть, что при блокировке доступа программы к сайту, он аначинает "ходить" кругом и пересчитывать уже имеющиеся данные, отчего кстати и появляется ощущение "зависания".

Такое же сообщение было в ветке форума по page weight. ТС, как это понять...?

Откровенно говоря понятия не имею. Вроде на спам не похоже, но пользователь за один день оставил 20-30 сообщений (учитывая дату регистрации). Лично я к этому отношения не имею, хотя то что написано верно, для обновления просто потребуется компенсация разницы в стоимости (кроме обладателей "супер ключа").

Авторам - будет ли введен функционал по расчету веса в несколько итераций? Как то уже писал об этом. Просто такая схема расчета сводила бы к минимуму погрешности.

Именно, в версии 4 будут 4 способа получения информации и подхода к просчету данных. думаю это решит (или по крайней мере улучшит) вопрос с большим объемом данных. Хотя программист обещал, что к версии 5 вопрос с большими объемами будет решен окончательно :)

Кстати, обратите внимание на сегодняшне обновление, там решен вопрос о котором Вы писали ранее.

Не помогло, придется ждать обновление версии,только когда она появится?
Да, кстати ссылок на этом сайте около 400 000 шт.

Предполагалось, что в конце января, но думаю, что чуть задержится. Не хотелось бы "кормить завтраками", но думаю, что не ранее середины, а то и конца февраля. Так как много новых функций и формул просчета и поэтому еще понадобится время для проверки, настройки и корректировки.

И на сегодня:

Вышло обоновление программы до версии 3.20.

В обновление вошло:

•Изменение юзер агента, под которым программа "представлялась" серверу. Теперь программа представляется Яндексом (Mozilla/5.0 (compatible; YandexDirect/3.0)) (это следует учесть, если ведется контроль трафика).

•Исключение ссылок в тегах /form/ и соответственно решение вопросов, когда формы отправки сообщений выдавались как "битые" ссылки (это было в связи с разночтением методов POST и GET).

•Коррекция чтения ссылок с расширением .sema

Яндекс ратует за естественность, поэтому будет правильно, если ссылки будут на контент сайта (не исключая главную).

Я например при закупке ссылок беру в равном порядке и на внутряки (разделы) и на главную.

boikoch:
я собсна интересуюсь только для того что бы разобраться с каких сайтов и их морд покупать ссылки а с каких нет.

тут надо смотреть:

1. Сколько страниц этого сайта в индексе ПС

2. Сколько всего исходящих ссылок на сайте

3. Сколько исходящих ссылок на страницах (размещены ли они скриптом или вручную т.е. заявка на естественность)

4. Есть ли сайт в Як и Dmoz (если и там и там, то можно сказать что сайт качественный).

5. Трафик на сайте (с ПС).

и тут же наверное стоит установить цель для чего покупается ссылка. Наращивание пуза или seo эффект или прямой траф с этого сайта.

Я думаю оптимальным будет вариант выхода L4 в котором будет представлено несколько способов получения информации сайта :)

В первом окне при загрузке программы есть "карта сканирования". Там в самом низу можно выставит задержку обращения (общая для сайта и для ПС).

Для транслитерации есть правила им и нужно следовать. Тут нужно просто воспользоваться соотвествующим сервисом или скриптом (если движок).

Если уже проиндексированы, то я бы не трогал конечно.

1 ссылка на 1 страницу

я думаю все же стоит, в этом случае главным словом ключом будет "слоны". Точное вхождение все таки на мой взгляд лучше (хотя нужно смотреть в каких это все объемах)

Xameleon007, Ставьте, только не на все страницы, а на 3-5 по каждому счетчику. В этом случае сайт попадет в их рейтинг (каталог) и будет обратная ссылка + какая то цифра на счетчиках. А Ваш сайт не будет сильно грузиться.

Если нужна статистика то LI самое оно, тем более при добавлении сайта в рекламные партнерки требуют именно статистику по LI счетчику.

Спасибо, стараемся :) тут глюк скорее всего в количестве внутренних ссылок (нормаль до 75 000), так же может просто блокировлся доступ к сайту на уровне хостинга. В этом случае нужна чуть большая задержка (не менее 0,75с).

Всего: 891