- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Можно подробнее ? Какое количество внешних страниц сайта Вы использовали ?
не очень понял термин "внешние страницы сайта"? :)
у меня был нормальный сайт (pr=5 по всем DC) пирамидальной струкруры, на 4-5 уровне сайта располагалось порядка 2000 страниц. Был произведен эксперемент по схеме 13, т.е. на каждой внутренней странице была поставлена (или оставлена) одна ссылка на главную (другая навигация присутствовала, но была закрыта nofollow).
В результате последнего апдейта pr:
у главной pr = 4-5, 1500 глубоких страниц попали во вторичный индекс (щас вывожу)...
PS
Есть вероятность, что эксперемент был нечистый, отрубился хостинг в нужный момент.
Поэтому сменил хостинг, немного отошел от этой схемы и жду январского пересчета pr.
на 4-5 уровне сайта располагалось порядка 2000 страниц.
Эти страницы были проиндексированы при предпоследнем апдейте ? (т.е. до эксперимента)
Гугл воспринял резкое изменение количества внутренних ссылок на морду как махинацию , а что если постепенно скармливать ему внутренние страницы с этими ссылками ?
В этом случае важно знать до какого предела можно наращивать количество ссылок , чтобы Гугл не посчитал это махинацией.
да, в индексе были, pr=0
сие мне неизвестно. Есть общее правило: сайт для роботов и для посетителей должен выглядеть более-менее ОДИНАКОВО, иначе возможны санкции...
может быть, может быть :)
Вообще-то, есть сайты по такой схеме и все нормально.
Например, фотоархивы - тысячи внутренних страниц с одной ссылкой на морду и у морды большой pr. Думаю, важна хорошо продуманная организация линковки и ЧЕЛОВЕЧНОСТЬ сайта.
фотоархивы - тысячи внутренних страниц с одной ссылкой на морду и у морды большой pr
1. покажите пример пожалуйста :)
2. если бы все так было просто и PR поднимался бы своими "пустышками", можно было бы сгенерировать миллионы страниц и получив PR7-10 радоваться содеянному