GoodGoog

Рейтинг
11
Регистрация
08.08.2009

Я извиняюсь, позвольте вопрос по теме...

У моего сайта страниц в индексе Гугла - порядком 150 страниц, 5 дней назад 2500 страниц, 7/10 дней назад 109 страниц, недели 2 назад 1179. Как думаете с чего бы такой "шторм".

По вопросу нарашивания тИЦ & PR более мене ясно, необходимы показатели донора........

А, вот у меня вопрос по конкретней - сайт с разделами (ключи внизу) показатели 40тИЦ PR1 (главной):

1) Доска бесплатных объявлений, доска объявлений, дать объявление, дать объявление бесплатно

2) Каталог статей, добавить статью, разместить статью, публикация статьи

3) Каталог сайтов, бесплатный каталог сайтов, добавить сайт в каталог

Это разделы с ключевыми словами - 11 ед.

Пробовал оценить с помощью различных систем (сеопульт, мегаиндекс) - сумма вырисовываеться не объективная. Ведь при покупки автоматом, не учитываються индексация со стороны поисковиков (или не корректно).

Для примера: составил фильтр в поиске доноров, из первой сотни сайтов - %40 страниц не проиндексированны Гуглом, - 15% страниц не проиндексированны Яндексом, - %4/6 страниц и вовсе не проиндексированны поисковиками (данными). Значит ли это что с этих страниц нет смысла покупать ссылки, или купить и ждать??? Хотя в фильтре указаны требования к индексации.

Как думаете при покупки оринтировочно - 100 ссылок по одному ключу (с разными анкорами), с страниц УВ 2/3. Произойдет "верное" движение "вверх". Если брать с сайтов - домены второго уровня, индексируемость страниц донора, показатели сайтов от 0 до 300 тИЦ, PR у всех 0 (главные до 4). Тематика "все" - кроме сайтов для взрослых.

И с какими более дорогими ссылками можно разбавить, скажем в количестве для каждого ключа. Результативность - плавное топ 10. 🍿

zharinov:
Лучше покупать с сайтов Вашей тематики. Чтоб поднять pr формула

Упрощенная формула Google PageRank

PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn)),

где PR(A) — это вес PageRank страницы A (тот вес, который мы хотим вычислить),

D — это коэффициент затухания, который обычно устанавливают равным 0,85,

PR(T1) — вес PageRank страницы, указывающей на страницу A,

C(T1) — число ссылок с этой страницы,

PR(Tn)/C(Tn) означает, что мы делаем это для каждой страницы, указывающей на страницу A

Формула

0.15+0.85*D= PR Вашей страницы

0.15 = самый низкий возможный PR страницы
0.85 = коэффициент передачи PR
D = PR ссылающейся страницs

Для яндекса фиг его знает ) сколько нужно для определённом подьёма ТИЦ

Насколько Я понимаю для поднятия PR - анкоры не столь важны.

Сейчас на главной странице моего сайта PR - 1, а для формулировки = 3/4, необходимо приблизительно ссылок со страниц сайтов (PR - 3|4) приблизительно 30, 40 ссылок? Или не так...

GoodGoog добавил 11.09.2010 в 22:54

AlexRas:
Лучше брать тематические ссылки, хотя нетематические тоже бывает неплохо работают. Для продвижения в Гугле PR важен. Кроме того, смотрите на качество самих доноров (тут много характеристик кроме тиц и pr).



PR для поднятия PR - важен. Для поднятия ТИЦ я бы посоветовал бы обращать внимание на другие характеристики донора, кроме Индекса Цитирования.

Вы знаете при выборе площадок (сайтов доноров), даже по достаточно строгим выбором (наличие в каталогах одновременно: Dmoz & Yaca), страницы просто не в индексе (или Яндекса или Гугла). Думаю одним из главных критериев должено быть:

а) индексированность;

б) количество внешних ссылок;

Это те примеры на которые не особо много времени тратя - можно проверить данные критерии...

А, вот в продолжении - какая более чем оптимальная цифра для страниц УВ 2/3 с ВС (обязательно индексируемая со стороны Я & G)?

Оооооооооо дружище выбрось эту мысль - копипастить чужие статьи.

Для примера: на моем сайте раздел каталог статей (где публикации осуществляют пользователи), по моим упущения эное количество статей оказались не уникальными.

Результат - Гугл из более 2500 страниц оставил в индексе - 100.

Зато мне урок - а значит и новые требования для пользователей включать мозг.

Не понял..........

набираю www.google.ru - в поиске site:www.мой-сайт.ru, результаты в поиске ах 2520 страниц, только вчера по тому же алгоритму - 96 страниц....... В панели для веб мастеров - вчера 1100 с копейками страниц, а сегодня 1074 страниц - то есть здесь минус...

Это нормально!

Ну а что касается раздела статей - так и есть гугл - выпленул, его просто нет как будто и не было. Есть над чем поработать.

sokolenko:
Удалять не нужно. Если у Вас есть возможность, то постарайтесь их уникализировать. А тэг canonical в этом случае Вам не поможет. Он не для этого предназначен.

...........Как бы это сказать - ведь тут материаллов несколько тысяч, да одна только проверка на уникальность, сколь возьмет времени.

Боюсь без радикальных мер получаеться не обойтись - пресс релизы, новости, статьи под 0.

Меня удивляет что раздел объявления - и то как то индексируеться гуглом, а раздел статей под -0 вылетел, новостной/пресс релизы еще вроде "дыщит".

Просто есть статьи по которым приходит трафик с Яндекса и соц сетей, а с Гугла 0.

И жалко, но и боязно что за Гулом придет Яндекс - и тогда траф сократиться почти на 30%.

GoodGoog добавил 02.09.2010 в 21:20

Хотел задать дополнительный вопрос - по опыту.

При публикации новых материаллов пользователями, если мне показался материал интересным Я его обычно публикую в твитере и соц сетях с ссылкой на статью.

Не может это как то отрицательно сказаться - точнее восприниться как спам?

А, существующие материалы - необходимо удалить?

Или попробовать вставить rel=canonical... ни кто не пробовал как отреагирует Гугл.

Спасибо.

Т.е. Вы имеете ввиду если бы мой сайт находился скажем в Дмоз, то таких проблем скажем не было бы со стороны Гугл?

А, также Вас понял так что по возможности - редактировать добавленные материаллы (перепроверяя на уникальность), со статьей и пресс релизами ясно. Статью на крайняк можно отправить автору для редактирования до уникальности. Достаточно ли будет в пределах 70-90%, или обязательно на 100%?

Спасибо.

Спасибо всем за участие.

Всплыл главный "кариес" - это контент. Тут то все и не однозначно.

Сайт не просто одно тематичный, а точнее сервис по разделам... каталог сайтов, каталог статей, доска объявлений, пресс-релизы. И соответственно говорить о 100% уникальности не приходиться. Сразу оговорюсь все публикации моддерируються.

Выходит, перед публикацией - перепроверять на уникальность - но это просто "маразом". Так как не мало ресурсов, порой очень хорошо посещаемых у которых контент на % минимум на 50 не уникальный.

Для эксперимента опубликовал одну из своих старых статей (которые ранее были размножены и оригинальные добавлены на различные ресурсы) - pisali, rusarticles - кому интересно могу продолжить список (домены не пишу и так ясно). Результат все "ок".

Так значит не все однозначно - порой читаешь (особенно на англоязычном форуме веб мастеров гугл), цитата одного из веб мастеров "гугл видит больше не уникальные статьи, мои индивидуальные статьи он вообще не видит и не показывает (имеется ввиду в список выдачи поисковика)"....

Я, Вас правильно понял - в этом нет ни чего страшного, для вывода данных страниц в общую базу поиска достаточно просто - внешних ссылок.

12 3
Всего: 24