- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Sterh, когда планируется новая версия?
кстати есть пожелание, показывать вес отдаваемый на исходящую ссылку, его конечно можно посчитать, программно это не сложно, а удобства добавит :)
Тогда цена явно будет не 20 :)
Sterh, когда планируется новая версия?
кстати есть пожелание, показывать вес отдаваемый на исходящую ссылку, его конечно можно посчитать, программно это не сложно, а удобства добавит :)
Новая версия потихоньку тестируется. Сроки пока не назову, бо перед этим нужно еще один проект запустить.
Тогда цена явно будет не 20 :)
Цена будет 50 :) От тут я давал маленький аннонс :)
Всем, кто приобретал первую версию программы будет скидка 50%
Я первый на очереди!
Приобрел софтину - весч на самом деле весьма полезная,
правда, на одном из сайтов, заметил очень интересный баг,
при сборе ссылок, переход по ссылкам с анкорами в виде >>> не осуществляется,
в итоге картина получается весьма искаженной,
ТС, поправьте плизз в новой версии, если нужны подробности и конкретный пример - отпишите в личку
PS Также интересует вопрос как учитываются и учитываются ли вообще две внутренние ссылки на одну и ту же страницу, но с разными анкорами
Всем, кто приобретал первую версию программы будет скидка 50%
Я первый на очереди!
Обязательно! ))
Приобрел софтину - весч на самом деле весьма полезная,
правда, на одном из сайтов, заметил очень интересный баг,
при сборе ссылок, переход по ссылкам с анкорами в виде >>> не осуществляется,
в итоге картина получается весьма искаженной,
ТС, поправьте плизз в новой версии, если нужны подробности и конкретный пример - отпишите в личку
PS Также интересует вопрос как учитываются и учитываются ли вообще две внутренние ссылки на одну и ту же страницу, но с разными анкорами
Да, киньте УРЛ в личку плиз...Собственно анкор в сборе данных роли не играет и должно все собираться. Единственное, что может быть, это если подобная ссылка стоит через скрипт (я так догадываюсь, что ссылки с таким анкором стоят вместо "читать полностью" и прописываются автоматом после анонса).
По поводу двух одинаковых ссылок: На данный момент они клеятся, т.е. считаются как одна. Вопрос, конечно, спорный, но пока вот так...
Можно узнать, вот я проверяю сайт на вес страниц, после начинаю линковать, при этом после 2 проверки программы этого сайта, веса одинаковые, почему?
Sterh, а в новой версии будет возможен парсинг больших сайтов?
Можно узнать, вот я проверяю сайт на вес страниц, после начинаю линковать, при этом после 2 проверки программы этого сайта, веса одинаковые, почему?
Смотря как линкуете. Если вы просто к существующим сслыкам добавляете новые на те же страницы - то ничего не изменится, т.к. программа ссылки с одиноковыми урлами клеит.
Попробуйте не добавлять, а наоборот закрывать ссылки в noindex & nofollow
Sterh, а в новой версии будет возможен парсинг больших сайтов?
Скорее всего будет реализован механизм пасинга страниц с поисковиков. Т.е. программа собирает проиндексированные поисковиком страницы, а потом идет по ним, собирая ссылки. И уже на основании этого будет вестись расчет.
Это упростит скан больших сайтов, и даст возможность реализовать другие функции.
Еще бы хотелось видеть в программе древовидную структура сайта
Здравствуйте!
Есть замечания по програме:
1. Если вес условный, то сумарный вес страниц должен быть при любой итерации одинаковым. Припустим 100% это сумарарний вес сайта, тогда каждая страница будет иметь какойто вес в процентах. (легко исправить).
2. Очень важным пунктом есть вложеность страницы (легко исправить).
3. При рассчете веса страниц надо блокировать прорисовку, и вообще не прорисововать - это очень понижает быстродийствие. Прорисовку надо делать в конце каждого цыкла (а не при каждом обчислениии страницы).
4. Желательно упростить задачу кодировки - поставте пожалуйста автоопридиление как дефаулт.
Жду фиксов :)