Ruslan7

Ruslan7
Рейтинг
75
Регистрация
31.01.2009

Бывало, что не заходило и не раз. Иногда просто помогала перезагрузка страницы, иногда действительно просто надо было подождать, так как часто что-то мутят с базой.

Zapata:
Если у него нет наследников

Да наследники спят и видят, как бы им найти все саттелиты, которые растащили контент их деда:)

bunagi:
Уважаемые, вот вы говорите, что тИЦ не влияет на выдачу в поиске, тогда скажите пожалуйста по какому принципу продвигает сайты система seopult.ru? там же идет покупка ссылок для повышения тИЦ? Соответственно они обещают ТОП места в выдаче! 🚬

Seopult обещает продвижение по запросам, а ТИЦ это побочный эффект. Хотя есть, конечно, и те, кто покупает ссылки по определённым фильтрам не для продвижения, а для наращивания ТИЦ. Но то, что ТИЦ на выдачу не влияет это 100%.

gepard89:
erynok, закажите текст на главную у какого-нибудь копирайтера, а то его невозможно читать. Думаю редактора дмоза прочитав первый абзац текста на главной Ваш сайт забракуют, даже без дальнейшего его просмотра.

Согласен. Меня хватило на первый абзац. Довольно тяжело читается. Для главной страницы нужен более легкий и читабельный текст.

У меня пошли подвижки, причём существенные. Будем ждать утра...

bez-gnid:
Кстати у меня по моему не АГС а СДЛ как раз... Единственное что из рекламы, так это яндекс директ и то запихан в самый нутрь новостей и реклама себя вообще не навязывает... Есть пару приложений по СМС, но это исключительно тематические программы. И сайт действительно для людей. Весь софт практически прогоняется через свой телефон, все проверяется полностью и тд...

Вы не правильно поняли. lcatlas не говорил, что Ваш сайт т.н. ГС. Под аббревиатурой АГС он имел ввиду фильтр Яндекса АГС-30 (раньше был АГС-17), который может быть наложен на сайт за ряд неблагоприятных факторов, в частности, не уникальный контент или дублирование страниц (при наложении фильтра у сайта исключаются страницы из индекса, определённая часть или все сразу). Вот про дубли страниц и говорил lcatlas.

muratti:


Вбейте урл в избранное и воспользуйтесь поиском площадок.

Да, самый быстрый и правильный способ. Добавляете в свой профиль в сапе урл сайта в избранное и ищете потом этот сайт в избранном. Тогда закрытый урл будет не помеха.

Лично я из опыта могу сказать, что с помощью письма владельцу домена решал все вопросы. Главное не угрожать напрямую, а вежливо намекнуть, чем это воровство может ему грозить.

К примеру, я обычно по пунктам перечисляю действия, которые последуют при нежелании убирать контент или ставить прямую ссылку на источник.

1) Давал соответствующие статьи законов об авторском праве и меры наказания за их нарушение. А там суммы и сроки очень впечатляющие.

2) Грозил тем, что напишу письмо хостеру и в случае его отказа, подам на него иск в суд. (Хостеру легче избавиться от "проблемного" клиента", чем потом иметь проблемы из-за него.

3) Предупреждал, что отправлю письма в Яндекс и Гугл, с требованием исключить вора из индекса.

4) Обычно в конце добавлял, что материал с моего сайта возможно использовать, но только при указании прямой ссылки на источник.

Было два реальных случая воровства.

Итог: Сейчас с обоих сайтов стоят с главной и со сворованных страниц ссылки на мой сайт.

Не переживайте авторы уникального контента! В ближайшее время воровать контент станет почти бессмысленно. Первоисточник будет определяться моментально!

Кто нам в этом поможет? Конечно же, самая крупная поисковая система в мире Google.

Гугл заявил, что скоро запустит новый алгоритм, который сможет моментально индексировать контент после добавления. Таким образом, выиграют маленькие сайты, к которым поисковые роботы приходят не чаще 1 раза в неделю. Сам принцип добавления контента будет в чём-то схож с технологией RSS, когда Вы публикуете новый пост и он сразу пересылается Вашим подписчикам. Кстати среди подписчиков часто бывают те, кто просто ворует контент (автоматически).

Но теперь, в первую очередь, Ваш вновь добавленный контент будет пересылаться не подписчикам, а индексирующему роботу, который будет его сразу индексировать.

Чтобы воспользоваться этой функцией Гугла, нужно будет установить у себя на сайте фичу, типа плагина RSS и после этого контент будет сразу после опубликования попадать в индекс.

Главной причиной, почему Гугл пока задерживает выход данного алгоритма, является то, что он пытается максимально защититься от возможного спама.

Кстати моментально проиндексированные Гуглом страницы будут общедоступны и их смогут индексировать другие поисковые системы, такие как Bing, Yahoo и т.п.

Лично меня эта новость очень порадовала, так как я лично пишу очень много уникального контента, а многие «умельцы», сразу же воруют его через RSS на автомате. Я уже нашёл действенные способы защиты от воровства, но моментальное попадание в индекс решит все проблемы и упростит эту задачу)).

Вот кстати перевод самой новости с английского:

"Третьего марта Google объявил, что скоро в его существовании откроется "новая глава". Он готовится запустить алгоритм, индексирующий контент практически сразу после его публикации. Об этом рассказал на конференции Search Marketing Expo менеджер продуктов Google Дилан Кейси.

Владельцы сайтов должны будут самостоятельно добавлять свежий контент в Google для мгновенной индексации. Аналитик Дэнни Салливан предположил, что Google придется серьезно поработать над отсеиванием спама на этой стадии.

Система будет работать на основе протокола синдикации в реальном времени PubSubHubbub (сокращенно - PuSH). Протокол основан на формате данных ATOM. Владельцам сайтов, которые желают воспользоваться возможностями мгновенной индексации, придется интегрировать этот протокол в свои сайты. Принцип работы аналогичен RSS: если сайт поддерживает протокол, Google получит возможность увидеть его поток и подключить к мгновенному индексу. PuSH не заменит традиционного краулинга – последний нужен как минимум для того, чтобы, обходя сайты, обнаруживать потоки данных.

Основную выгоду от нового протокола получат владельцы маленьких сайтов – среди них много таких, на которые индексирующий бот Google заходит не чаще раза в неделю. Кроме того, возможно, улучшится ситуация с определением первоисточника контента.

При этом PuSH – открытый протокол, и создаваемые им потоки (feeds) смогут видеть и Yahoo!, и Bing, и другие поисковики, которые захотят добавить мгновенную индексацию. Много интересного об устройстве протокола PuSH и о том, какую он пользу может принести, содержится в презентации, опубликованной на ReadWriteWeb."

Новость была опубликована в официальной рассылке SEO экспертов

"Ашманов и Партнеры"

По поводу шаблонности и структуры сайтов. Да, убеждён, что для алгоритма очень важна уникальная структура сайта, иначе он может попасть под фильтр.

Подтверждение на примере:

Мой Блог на вордпресс, домен .ru вчера вылетел из индекса. Сейчас 0 страниц. Контент 100% уник, писал сам. Никаких бирж, никакой рекламы, да ничего вообще, что может не понравиться. Ссылок не наращивал и не закупал: есть только 60 естественных ссылок, которые наросли со временем.

Единственное, что могло не понравиться алгоритмам Яндекса, это паблик шаблон, который был переделан по себя (минимально, структура осталась примерно та же).

Вывод: Гранатомёт стреляет по террористам, но задевает и мирных "бабушек"🍾.

Написал в ТП, уверен, что всё вернётся, но очень неприятно.

Всего: 204