- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Можно ссылку на скачку? Раньше в мыло писали где чего...
А то юзаю еще до сих пор какую-то древнюю :)
/ru/forum/comment/7219007;postcount=531
/ru/forum/comment/7219007;postcount=531
спасибо... кстати, не читал полностью ветку... вы решили проблему просчета больших сайтов?
спасибо... кстати, не читал полностью ветку... вы решили проблему просчета больших сайтов?
Проблема будет решена во 2-й версии.
Проблема будет решена во 2-й версии.
супер молодцы... рекомендую вашу прогу на своих курсах :)
если буду делать сборник мастхев - обязательно вас включу :)
супер молодцы... рекомендую вашу прогу на своих курсах :)
если буду делать сборник мастхев - обязательно вас включу :)
Спасибо :)
exp131, как купить вашу программу???
exp131, как купить вашу программу???
http://www.page-weight.ru/buy/
Цитата:
Сообщение от workint
Учитывается только первая ссылка на странице. Обычно это ссылка из навигационного меню.
гугл именно так и учитывает
Только есть один ньюанс. В Москве почти все в Яндексе продвигаются, а не в Гугле. И если это нормальный сайт, то у него будет минимум две ссылки на продвигаемые страницы. Одна из меню, вторая в тексте.
Ну потратили бы, если за месяц не поняли, что у вас в руках
Если ответить нечего, то и не надо всякую ерунду писать. Или вы холтите сказать, что все Ваши сайты имеют по одной ссылке на страницу и ссылки не дублируются в контенте?
Скажу что никакой ошибке в алгоритме программы вы не указали. Да программа учитывает только физическую перелинковку без учета анкоров, но об этом написано в документации и обсуждалось на этом форуме.
Я считаю, что раз уж программа была сделана и было потрачено немалое время на ее создание и работает она нормально, то почему бы при получении данных не сделать сьемную галочку "удалять дубликаты ссылок". Пользователь уже сам будет решать как ему удобнее. И тогда это будет ниормальным решением для сайтов у которых меню не на javascript, а таких большинство. Более того, я считаю, что программа одинаково учитывает все сквозные ссылки(навигацию), когда Yandex сквозные ссылки учитывает по-другому или не учитывает вообще(?). Жду комменты.
Я считаю, что раз уж программа была сделана и было потрачено немалое время на ее создание и работает она нормально, то почему бы при получении данных не сделать сьемную галочку "удалять дубликаты ссылок". Пользователь уже сам будет решать как ему удобнее. И тогда это будет ниормальным решением для сайтов у которых меню не на javascript, а таких большинство. Более того, я считаю, что программа одинаково учитывает все сквозные ссылки(навигацию), когда Yandex сквозные ссылки учитывает по-другому или не учитывает вообще(?). Жду комменты.
Как бы помягче-то?
Дело в том что программа не ориентируется на яндекс. Расчет веса идет по похожему на гугловый PR алгоритму (как считает гугл никому кроме его сорудников неизвестно, впрочем как и яндекс). А алгоритм этот учитыват только перелинковку страниц, что в большистве случаев достаточно для построения правильной карты сайта и определения приоритетных страниц и выявления проблемных мест.
Если не удалять дубликаты ссылок то вы получите не нормальное решение, а неверный результат расчета, и как следствие неверное представление о перелинковке вашего сайта.
Что касается передачи веса по анкорам, то (это кстати уже обсуждалось на этом форуме) для обработки текстовых ссылок и вычисления веса передаваемого по ним алгоритм будет намного сложнее, и такая программа будет стоить совсем другие деньги (плюс нужно будет взять несколько мощных серверов, ибо ресурсов будет кушать прилично).
Да, сервер обычно отбивает программу где-то на 15-18К странице. Я писал об этом выше. Для больших сайтов сейчас готовится серверная версия.
Скажите пожалуйста, а большие сайты есть возможность спарсить определенное количество страниц. А то я купил программу. Потратил два дня на парсинг. Не выключал комп. И ошибка возникла на 30K. В приниципе для больших сайтов не обязательно все выкачать, важно просто какую то выборку.
(сорри если где то есть ответ, нет реально времени просто все прочитать)