- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![Зачем быть уникальным в мире, где все можно скопировать](https://d.searchengines.guru/20/96/frame_27_600x314__b353b658.jpg)
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В результате получаю тоже самое, что и в первой моей попытке.
1) Как просканировать весь сайт целиком? (все 10к страниц)
2) Как правильно вводить исключения?
3) из 10к старниц я планирую продвигать 50-100(из них 20-30 типовых), расчитовать вес нужно относительно этих 50-100 страниц или же относительно всех страниц сайта?
Заранее спасибо за ваши ответы, и извините за не грамотное постановление вопросов =).
P.S. с наступающим!
1)Если программа видит значительно меньше страниц, чем ожидается, то скорее всего её отбивает хостинг. Проверьте вкладку "ошибки", если там ответы вида "Время ожидания истекло" или "Тайтл не получен или отсутствует", то следует сократить количество потоков, увеличить тайм аут, увеличить паузу между обращениями.
2) Исключения лучше делать в роботсе. Можно сделать локальный (что бы не влезать на сайт), и подгружать его. Исключения в настройках больше подходят для исключений по типу файлов (картинки, мр3, и т.п.)
3) Вес рассчитывается по всему сайту в целом. Далее, закрывая и удаляя ссылки, старайтесь сосредоточить его на продвигаемых страницах. Можно использовать моделирование, или "резать по живому".
Но тогда я не получу реальной картины т.к. на эту страницу могут ссылаться другие сайты и тем самым рассчитанный вес уже не будет актуальным.
Что бы получить реальную картину, нужно сканировать и рассчитывать весь интернет. Программа работает с одним сайтом.
Как уже сказали, можно перед расчетом изменить стартовые веса (если Вы знаете всех доноров и примерно представляете сколько веса они могут передать). Вообще, обычная практика - настроить перелинковку на сайте так, что бы на продвигаемые страницы стекал максимально возможный вес, а потом эти страницы уже долбить внешними ссылками.
......................
Как уже сказали, можно перед расчетом изменить стартовые веса (если Вы знаете всех доноров и примерно представляете сколько веса они могут передать). Вообще, обычная практика - настроить перелинковку на сайте так, что бы на продвигаемые страницы стекал максимально возможный вес, а потом эти страницы уже долбить внешними ссылками.
Согласен, для своего сайта это так. А при выборе донора нам распределение его веса по сайту абсолютно не важно т.к. ссылку мы покупаем с 1 страницы при этом учитывать вес его внешних ссылок очень важно. А смоделировать их точно мы всеравно не сможем т.к. придется сканировать весь интернет. Что собственно для нас делает Я и Г, поэтому прикинуть порядок веса по тулбарному ПР будет в разы точнее.
Согласен, для своего сайта это так. А при выборе донора нам распределение его веса по сайту абсолютно не важно т.к. ссылку мы покупаем с 1 страницы при этом учитывать вес его внешних ссылок очень важно. А смоделировать их точно мы всеравно не сможем т.к. придется сканировать весь интернет. Что собственно для нас делает Я и Г, поэтому прикинуть порядок веса по тулбарному ПР будет в разы точнее.
Вы слегка заблуждаетесь. Давно еще писал статью про вечные ссылки. Почитайте :)
2 Sterh
Добавьте, пожалуйста:
1. поддержку IDN доменов/поддоменов (конвертация пуникода в читаемую кириллицу...)
2. конвертацию кирил. URI в читаемые.
3. возможность изменения веса для множества страниц (по фильтру...), сейчас нужно менять для каждой страницы отдельно!?
4. кнопку создания копии проекта
Sterh, хорошо бы видеть анкоры с какими ссылаются на страничку, а то захожу я в раздел "Перелинковка" вижу ид донора, тайтл донора, урл донора, а где анкор ссылки донора?) И хорошо бы не просто анкоры выводить, но ещё где-нибудь внизу показывать сколько ссылок с таким анкором ссылается на данную страничку и тогда можно будет не допускать переспама по определённым ключевикам.
Вечер добрый.
Атрибут rel="canonical" программа понимает?
Приобрел программу 26.12.2012.
Мне, как и автору одного из топиков, нужно определить вес страниц на сайте с более 4к страниц.
Исходные данные :
Винда 7 проф 64х
купленный Page Weight Desktop 2.0.8
все антивири и всякая шняга отключены.
пациент: prom-sn.ru сидит на шустром хостинге.
в настройках Page Weight:
Пауза между запросам: 750 мс
кол-во потоков: 5
Результат: Страницы 73
Ошибки: 2920
Пробовал все варианты описанные в предыдущих топиках.
Ошибки: 2920
а что за ошибки? :)
а что за ошибки? :)
успешно 93
закрыты от индексации: 1725 (Title не получен или отсутствует)
Ошибки: 1176 (Title не получен или отсутствует плюс у них же: время ожидания операции истекло.)