- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Sterh, когда планируется новая версия?
кстати есть пожелание, показывать вес отдаваемый на исходящую ссылку, его конечно можно посчитать, программно это не сложно, а удобства добавит :)
Тогда цена явно будет не 20 :)
Sterh, когда планируется новая версия?
кстати есть пожелание, показывать вес отдаваемый на исходящую ссылку, его конечно можно посчитать, программно это не сложно, а удобства добавит :)
Новая версия потихоньку тестируется. Сроки пока не назову, бо перед этим нужно еще один проект запустить.
Тогда цена явно будет не 20 :)
Цена будет 50 :) От тут я давал маленький аннонс :)
Всем, кто приобретал первую версию программы будет скидка 50%
Я первый на очереди!
Приобрел софтину - весч на самом деле весьма полезная,
правда, на одном из сайтов, заметил очень интересный баг,
при сборе ссылок, переход по ссылкам с анкорами в виде >>> не осуществляется,
в итоге картина получается весьма искаженной,
ТС, поправьте плизз в новой версии, если нужны подробности и конкретный пример - отпишите в личку
PS Также интересует вопрос как учитываются и учитываются ли вообще две внутренние ссылки на одну и ту же страницу, но с разными анкорами
Всем, кто приобретал первую версию программы будет скидка 50%
Я первый на очереди!
Обязательно! ))
Приобрел софтину - весч на самом деле весьма полезная,
правда, на одном из сайтов, заметил очень интересный баг,
при сборе ссылок, переход по ссылкам с анкорами в виде >>> не осуществляется,
в итоге картина получается весьма искаженной,
ТС, поправьте плизз в новой версии, если нужны подробности и конкретный пример - отпишите в личку
PS Также интересует вопрос как учитываются и учитываются ли вообще две внутренние ссылки на одну и ту же страницу, но с разными анкорами
Да, киньте УРЛ в личку плиз...Собственно анкор в сборе данных роли не играет и должно все собираться. Единственное, что может быть, это если подобная ссылка стоит через скрипт (я так догадываюсь, что ссылки с таким анкором стоят вместо "читать полностью" и прописываются автоматом после анонса).
По поводу двух одинаковых ссылок: На данный момент они клеятся, т.е. считаются как одна. Вопрос, конечно, спорный, но пока вот так...
Можно узнать, вот я проверяю сайт на вес страниц, после начинаю линковать, при этом после 2 проверки программы этого сайта, веса одинаковые, почему?
Sterh, а в новой версии будет возможен парсинг больших сайтов?
Можно узнать, вот я проверяю сайт на вес страниц, после начинаю линковать, при этом после 2 проверки программы этого сайта, веса одинаковые, почему?
Смотря как линкуете. Если вы просто к существующим сслыкам добавляете новые на те же страницы - то ничего не изменится, т.к. программа ссылки с одиноковыми урлами клеит.
Попробуйте не добавлять, а наоборот закрывать ссылки в noindex & nofollow
Sterh, а в новой версии будет возможен парсинг больших сайтов?
Скорее всего будет реализован механизм пасинга страниц с поисковиков. Т.е. программа собирает проиндексированные поисковиком страницы, а потом идет по ним, собирая ссылки. И уже на основании этого будет вестись расчет.
Это упростит скан больших сайтов, и даст возможность реализовать другие функции.
Еще бы хотелось видеть в программе древовидную структура сайта
Здравствуйте!
Есть замечания по програме:
1. Если вес условный, то сумарный вес страниц должен быть при любой итерации одинаковым. Припустим 100% это сумарарний вес сайта, тогда каждая страница будет иметь какойто вес в процентах. (легко исправить).
2. Очень важным пунктом есть вложеность страницы (легко исправить).
3. При рассчете веса страниц надо блокировать прорисовку, и вообще не прорисововать - это очень понижает быстродийствие. Прорисовку надо делать в конце каждого цыкла (а не при каждом обчислениии страницы).
4. Желательно упростить задачу кодировки - поставте пожалуйста автоопридиление как дефаулт.
Жду фиксов :)