- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую! Есть СДЛ, с середины декабря начал покупать ссылки с бирж, после апдейта яндекса от 31.12 сайт поднялся по нужным запросам в top10.
После апдейда от 08.01 часть страниц (как раз на эти страницы и покупались ссылки) выпали из индекса, смотрел через панель вебмастера.
Остальные же страницы в индексе, и по НЧ сайт есть в топе.
Вопросы:
Заранее благодарю!
из-за покупки ссылок вряд ли.
Фильтры не фильтры сложно сказать, просто страницы не включены в поиск по каким-то причинам, такое бывает... как вариант алгоритм посчитал их неуникальными...
как исправить... для начала поищите может кто-то передрал контент, далее попробуйте изменить текст на странице... как еще одна мера письмо в поддержку...
Страницы выпадают, так же бывает, не повод паниковать.
Биржа тут думаю не причем, это всего лишь ссылка.
Ябы занялся более тесной перелинковкой, у мя так за счет не важных, но уникальных и насыщенных текстом страниц проиндексировались реально важные мне и не важные поисковику страницы =))
Это произошло из-за того, что покупалось много ссылок?
Яшей были наложены фильтры?
Как исправить?
Возможно, на страницах неуникальный текст. Часто из-за неуника выкидывает из индекса страницы, типа они никакой ценности не представляют.
Спасибо за ответы!
Натолкнули меня на мысль: выпавшие страницы сайта1 действительно содержали часть неуникального контента - со старого сайта компании - сайта2(сайт забросили, не следили за ним, его даже отключали за неуплату хостинга и вот вновь он появился в середине ноября, хотель неспешно сделать из него сателлит для основного сайта).
Странно, что это проявилось только сейчас (хотя, возможно, именно сейчас и проиндексировались страницы старого сайта - сайта2).
Сделал сайт2 зеркалом основного сайта1 через robots.txt. Только вот теперь (если причина действительно в этом) нужно ждать пока робот не проиндексирует оба сайта?
Уник не уник... меня терзают смутные сомнения. Есть приличное количество сайтов, часть с полностью уникальным контентом, часть с не очень, часть вообще никакого уника, так вот, все сайты с количеством страниц более 100 в этот ап начали терять проиндексированные страницы. Сайты разные, есть в Як, есть вне его, старые новые, всё одна картина.
Меня настораживает как раз тот факт, что контент уникальный и в ряде случаев никем не передирался.
Чего я НЕ делал в вышеперечисленных случаях, так это НЕ покупал ссылок на эти сайты... и ещё заметил такое интересное обстоятельство, чем больше ссылок ведёт на проекты, тем больше страниц в индексе... не взирая на уникальность контента.
Меня интересует такой вопрос, сколько надо ссылок дать на конкретную страницу, чтобы Яша её вернул в индекс и второй вопрос, есть ли критическое количество ссылок на сайт или их соотношение с количеством страниц, после которых сайт возвращается в индекс в полном объёме?
А то пока по моим наблюдениям нужно 20-30 ссылок дать на 1 страницу чтобы она в индексе нарисовалась.
Опережая высказывания про плохую индексацию скажу что Яша все страницы прекрастно видит, но в индекс не включает.
Прошу поделиться своими наблюдениями, можно в личку.
P.S. Если кто захочет ставить минусы в репу за честные наблюдения, ну тогда я вообще не знаю для кого этот форум.
Приветствую! Есть СДЛ, с середины декабря начал покупать ссылки с бирж, после апдейта яндекса от 31.12 сайт поднялся по нужным запросам в top10.
После апдейда от 08.01 часть страниц (как раз на эти страницы и покупались ссылки) выпали из индекса, смотрел через панель вебмастера.
Остальные же страницы в индексе, и по НЧ сайт есть в топе.
Вопросы:
Заранее благодарю!
А если здесь посмотреть http://webmaster.yandex.ru/check.xml, то все странички на месте?
А если здесь посмотреть http://webmaster.yandex.ru/check.xml, то все странички на месте?
вот именно, что нет. Это и настораживает... :(
kabaras добавил 09.01.2009 в 03:48
Меня интересует такой вопрос, сколько надо ссылок дать на конкретную страницу, чтобы Яша её вернул в индекс и второй вопрос, есть ли критическое количество ссылок на сайт или их соотношение с количеством страниц, после которых сайт возвращается в индекс в полном объёме?
А то пока по моим наблюдениям нужно 20-30 ссылок дать на 1 страницу чтобы она в индексе нарисовалась.
По Вашему же мнению, нужно еще докупить ссылок на страницы, чтобы они снова появились в индексе, я правильно понял?
я то как раз думаю, что страницы могли выпасть из-за большого числа бэков (ведь есть же у буржуйского гугла фильтр too many links at once), появившихся на относительно небольшой промежуток времени - 3 недели. p.s: это мои мысли, не более, никакими фактами не подтверждено.
У меня вообще историй странная. У одного проекта через ручную проверку около 3000 страниц в индексе, а панелька показывает что в индексе одна морда. :)
У меня вообще историй странная. У одного проекта через ручную проверку около 3000 страниц в индексе, а панелька показывает что в индексе одна морда.
Тоже такое наблюдал. Думал меня глючит, а оказалось, что глючит Яшу ...
ЗЫ. Хоть обновление разнесено во времени, но было такое где-то недели две ... явный глюк ...
Рассмотрим конкретную ситуацию. Осталось страниц в индексе - 10 из нескольких тысяч. Раскручивался сайт в основном обменом ссылками, причём как обычно водится, ссылки вели на главную страницу. Когда страницы стали вываливаться, коды ссылок при обмене перераспределил на внутренние страницы, плюс слегка пробежался по форумам с оставлением ссылок на внутренние страницы, так как откровенным спамом не занимался, то счёт ссылок вёлся на десятки (то есть немного). Ну дык вот, лезим в Япанель, там где на страницу ссылается менее 20 внешних ссылок, там везде тишина за исключением нескольких страниц. Стоит добавить беков на конкретную страницу, так вот она и в индексе, убираем обратки, не в индексе. Разницы что для уник не уник - без разницы.
По моим наблюдениям 3 недели не срок, большие проекты вынуждены постоянно, то есть годами кормить сапу чтобы оставаться в индексе, потому как иначе нужна очень нехилая сеть сателитов...
Далее анализируем конкурентов и вот чудеса (ох боюсь минусов наставят), интересная закономерность, их сайты начинало колбасить вместе с моими, причём день в день и различной тематики, затем они чудным образом в индексе, а я соответственно в анусе 😮, подключив мозг начал думать ☝ Точно знаю что как минимум 1 из почти десятка конкурентов закупает ссылки в сапе, плюс у ВСЕХ конкурентов что вогнали свои десятки тысячь страниц в индекс, беки исчесляются тысячами и более, конкуренты имевшие до всех Находок Магаданов и прочих Африк с Парагваями кучу страниц в индексе но побрезговавшие (как и я) закупками ссылок - сдулись полностью. На уникальность контента никто не обращал внимания, в индексе оказалось куча неуника, а уник вывели из индекса. Учитывая что Яшка в выдаче до сих пор выдаёт кучу сайтов с дублированным контентом...
Ну и в общем, так... взять большинство сайтов с кучей страниц в индексе, у всех куча беков, хотя, особенно в случае с каталогами ни Яша ни Гугля всё вам не покажут, однако факт - учтут. Попробуйте любой сайт прогоните хоть через Ашманова, посмотрите на соотношение страниц в индексе и обраток (обратите внимание - ссылки идут на внутряки). Там кстати тонкость, есть ссылки под Яшку, есть под Гуглю, у последнего те же алгоритмы ИМХО (очень похожи), однако гайки не так завинчены, думается Яше тоже придётся их приотпустить иначе рынок потеряет, есть преположение что не хватат ему вычислительных мощьностей, вот и режет выдачу чтобы машины разгрузить...
Silverhunt добавил 09.01.2009 в 05:29
P.S. Проанализировав беки успешных (то есть в индексе) конкурентов, за которым наблюдаю не первый год, пришёл к таким выводам:
а)Беки по большей части не естесственные, а либо купленные, либо каталожные.
б)Естесственные беки НЕ МОГЛИ приростать со скоростью даже в 5-10 раз более медленной чем существующая, что подтверждают загнувшиеся сайты не занимающиеся закупками.