Я извиняюсь, позвольте вопрос по теме...
У моего сайта страниц в индексе Гугла - порядком 150 страниц, 5 дней назад 2500 страниц, 7/10 дней назад 109 страниц, недели 2 назад 1179. Как думаете с чего бы такой "шторм".
По вопросу нарашивания тИЦ & PR более мене ясно, необходимы показатели донора........
А, вот у меня вопрос по конкретней - сайт с разделами (ключи внизу) показатели 40тИЦ PR1 (главной):
1) Доска бесплатных объявлений, доска объявлений, дать объявление, дать объявление бесплатно
2) Каталог статей, добавить статью, разместить статью, публикация статьи
3) Каталог сайтов, бесплатный каталог сайтов, добавить сайт в каталог
Это разделы с ключевыми словами - 11 ед.
Пробовал оценить с помощью различных систем (сеопульт, мегаиндекс) - сумма вырисовываеться не объективная. Ведь при покупки автоматом, не учитываються индексация со стороны поисковиков (или не корректно).
Для примера: составил фильтр в поиске доноров, из первой сотни сайтов - %40 страниц не проиндексированны Гуглом, - 15% страниц не проиндексированны Яндексом, - %4/6 страниц и вовсе не проиндексированны поисковиками (данными). Значит ли это что с этих страниц нет смысла покупать ссылки, или купить и ждать??? Хотя в фильтре указаны требования к индексации.
Как думаете при покупки оринтировочно - 100 ссылок по одному ключу (с разными анкорами), с страниц УВ 2/3. Произойдет "верное" движение "вверх". Если брать с сайтов - домены второго уровня, индексируемость страниц донора, показатели сайтов от 0 до 300 тИЦ, PR у всех 0 (главные до 4). Тематика "все" - кроме сайтов для взрослых.
И с какими более дорогими ссылками можно разбавить, скажем в количестве для каждого ключа. Результативность - плавное топ 10. 🍿
Насколько Я понимаю для поднятия PR - анкоры не столь важны.
Сейчас на главной странице моего сайта PR - 1, а для формулировки = 3/4, необходимо приблизительно ссылок со страниц сайтов (PR - 3|4) приблизительно 30, 40 ссылок? Или не так...
GoodGoog добавил 11.09.2010 в 22:54
Вы знаете при выборе площадок (сайтов доноров), даже по достаточно строгим выбором (наличие в каталогах одновременно: Dmoz & Yaca), страницы просто не в индексе (или Яндекса или Гугла). Думаю одним из главных критериев должено быть:
а) индексированность;
б) количество внешних ссылок;
Это те примеры на которые не особо много времени тратя - можно проверить данные критерии...
А, вот в продолжении - какая более чем оптимальная цифра для страниц УВ 2/3 с ВС (обязательно индексируемая со стороны Я & G)?
Оооооооооо дружище выбрось эту мысль - копипастить чужие статьи.
Для примера: на моем сайте раздел каталог статей (где публикации осуществляют пользователи), по моим упущения эное количество статей оказались не уникальными.
Результат - Гугл из более 2500 страниц оставил в индексе - 100.
Зато мне урок - а значит и новые требования для пользователей включать мозг.
Не понял..........
набираю www.google.ru - в поиске site:www.мой-сайт.ru, результаты в поиске ах 2520 страниц, только вчера по тому же алгоритму - 96 страниц....... В панели для веб мастеров - вчера 1100 с копейками страниц, а сегодня 1074 страниц - то есть здесь минус...
Это нормально!
Ну а что касается раздела статей - так и есть гугл - выпленул, его просто нет как будто и не было. Есть над чем поработать.
...........Как бы это сказать - ведь тут материаллов несколько тысяч, да одна только проверка на уникальность, сколь возьмет времени.
Боюсь без радикальных мер получаеться не обойтись - пресс релизы, новости, статьи под 0.
Меня удивляет что раздел объявления - и то как то индексируеться гуглом, а раздел статей под -0 вылетел, новостной/пресс релизы еще вроде "дыщит".
Просто есть статьи по которым приходит трафик с Яндекса и соц сетей, а с Гугла 0.
И жалко, но и боязно что за Гулом придет Яндекс - и тогда траф сократиться почти на 30%.
GoodGoog добавил 02.09.2010 в 21:20
Хотел задать дополнительный вопрос - по опыту.
При публикации новых материаллов пользователями, если мне показался материал интересным Я его обычно публикую в твитере и соц сетях с ссылкой на статью.
Не может это как то отрицательно сказаться - точнее восприниться как спам?
А, существующие материалы - необходимо удалить?
Или попробовать вставить rel=canonical... ни кто не пробовал как отреагирует Гугл.
Спасибо.
Т.е. Вы имеете ввиду если бы мой сайт находился скажем в Дмоз, то таких проблем скажем не было бы со стороны Гугл?
А, также Вас понял так что по возможности - редактировать добавленные материаллы (перепроверяя на уникальность), со статьей и пресс релизами ясно. Статью на крайняк можно отправить автору для редактирования до уникальности. Достаточно ли будет в пределах 70-90%, или обязательно на 100%?
Спасибо всем за участие.
Всплыл главный "кариес" - это контент. Тут то все и не однозначно.
Сайт не просто одно тематичный, а точнее сервис по разделам... каталог сайтов, каталог статей, доска объявлений, пресс-релизы. И соответственно говорить о 100% уникальности не приходиться. Сразу оговорюсь все публикации моддерируються.
Выходит, перед публикацией - перепроверять на уникальность - но это просто "маразом". Так как не мало ресурсов, порой очень хорошо посещаемых у которых контент на % минимум на 50 не уникальный.
Для эксперимента опубликовал одну из своих старых статей (которые ранее были размножены и оригинальные добавлены на различные ресурсы) - pisali, rusarticles - кому интересно могу продолжить список (домены не пишу и так ясно). Результат все "ок".
Так значит не все однозначно - порой читаешь (особенно на англоязычном форуме веб мастеров гугл), цитата одного из веб мастеров "гугл видит больше не уникальные статьи, мои индивидуальные статьи он вообще не видит и не показывает (имеется ввиду в список выдачи поисковика)"....
Я, Вас правильно понял - в этом нет ни чего страшного, для вывода данных страниц в общую базу поиска достаточно просто - внешних ссылок.