- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Замирает програмка ни с того ни с сего, может один и тот же урл обработать за десять минут, а может два часа думать о жизни, а потом выдать кучу ошибок. А на одном проекте так вообще - то мониторила все как часы, а теперь больше круглого количества урлов (3000, потом 2000) проверять не хочет, говорит - завершила работу. При этом показывает 70% страниц в ошибках (сайт летает)
Sterh, вообще, для меня самый идеальный вариант - пользовательская функция в excel, возвращающая 2 массива(входящих и исходящих) 🙄
Принцип понятен, остальное дело техники :)
Замирает програмка ни с того ни с сего, может один и тот же урл обработать за десять минут, а может два часа думать о жизни, а потом выдать кучу ошибок. А на одном проекте так вообще - то мониторила все как часы, а теперь больше круглого количества урлов (3000, потом 2000) проверять не хочет, говорит - завершила работу. При этом показывает 70% страниц в ошибках (сайт летает)
Ответил на Ваши сообщения в личке.
Принцип понятен, остальное дело техники
может подскажешь как подключить базу в excel?
а то через визуал студио - геморно очень :)
P.S. и еще по поводу версий баз 661 и 655, есть возможность как-то с конвертировать?
Побочная полезность:
Программа может значительно сэкономить бюджет на покупки статей и "вечных" ссылок. Огромное количество доноров линкуют свои сайты так, что вес, передаваемый по ссылке из статьи, ничтожно мал по сравнению с весом главной страницы. И получается, что деньги вы платите за пузомерки на морде, а эффект получаете как от копеечной нулевки. Так что прежде чем отдавать свои кровные - проверьте площадку на предмет наследования веса
А разьве для этого не достаточно взглянуть по барам на число внешних/внутренних ссылок и пузомерку страницы донора? Это конечно не очень точно, зато быстрее в разы и без всяких заморочек с выкачиванием сайта и т.п.
И еще вопрос отдельный: программа учитывает затухание при передаче веса или нет?
А разьве для этого не достаточно взглянуть по барам на число внешних/внутренних ссылок и пузомерку страницы донора? Это конечно не очень точно, зато быстрее в разы и без всяких заморочек с выкачиванием сайта и т.п.
И еще вопрос отдельный: программа учитывает затухание при передаче веса или нет?
Это уже каждый решает сам для себя :)
Число внешних / внутренних страницы донора, показатель весьма так себе. Для быстрого отбора сойдет. Но если покупаете дорогие ссылки, то лучше смотреть распределение веса и выбирать (если есть возможность) наиболее жирные страницы.
Да, учитывает.
Sterh, как с этим бороться?
на 7 32 битной проблем нет
на 7 64 вот такая бяка (обновления все стоят)
P.S. разобрался :)
Здравствуйте, заранее извиняюсь, если данный вопрос был уже решен в этой теме, но я пролистал 20 страниц и не нашел.
Приобрел вашу программу, все устраивает, но никак не могу разобраться в интерфейсе, пролистал весь яндекс и не нашел ответа.
Мне нужно определить вес страниц на сайте с более 10к страниц.
Вначале решил, почему бы не просканировать все страницы (за ночь =) ) и при создании проекта просто ввел site.ru и нажал сканировать, в итоге через 5-10 минут получил около 500 страниц и все.
Хм, ну тогда я решил использовать список страниц, в который добавил в ручную только типовые страницы (Около 20-30, все остальное дубликаты, относительно перелинковки). Поставил галочку "Использовать список страниц", на что получил около 250 страниц и все в каше опять.
Окей, далее я зашел в настройки и решил без использования списка страниц просто просканировать весь сайт, но добавив в исключения похожие страницы.
Тут то и возник вопрос: в каком ввиде их добавлять?
Ввожу site.ru
В исключения пишу, допустим, /deals или /companies (так же пытался вписывать deals *deals /deals/#)
В результате получаю тоже самое, что и в первой моей попытке.
1) Как просканировать весь сайт целиком? (все 10к страниц)
2) Как правильно вводить исключения?
3) из 10к старниц я планирую продвигать 50-100(из них 20-30 типовых), расчитовать вес нужно относительно этих 50-100 страниц или же относительно всех страниц сайта?
Заранее спасибо за ваши ответы, и извините за не грамотное постановление вопросов =).
P.S. с наступающим!
Это уже каждый решает сам для себя :)
Число внешних / внутренних страницы донора, показатель весьма так себе. Для быстрого отбора сойдет. Но если покупаете дорогие ссылки, то лучше смотреть распределение веса и выбирать (если есть возможность) наиболее жирные страницы.
Да, учитывает.
Есть еще вопрос, а внешние источники учитываются при моделировании (ссылки с других сайтов)?
а внешние источники учитываются
вы можете изменить начальные веса страниц (по умолчанию 1)
вы можете изменить начальные веса страниц (по умолчанию 1)
Но тогда я не получу реальной картины т.к. на эту страницу могут ссылаться другие сайты и тем самым рассчитанный вес уже не будет актуальным.