- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно проблемы с индексацией случаются часто, но мой случай считаю особенным (не частным, но и не частым).
Для начала немного истории:
Регистрируется домен (новый, по истории я первый владелец), вешается dle и простой паблик шаблон (частично переделан, очищен) и наполняется хорошим рерайтом (полное изменение заголовков + уникальность 85-100%). Проходит время и сайт входит первый раз в индекс (более 30 страниц). Но время идет и на сайте страниц уже более 100, а вот в индексе Яндекса их лишь 40. В итоге за 5 месяцев набралось более 300 страниц, а в индексе Яндекса ни разу не было больше 60 страниц в индексе, в то время как гугл отлично индексировал (более 40% страниц не под фильтром в гугле). Сайт без форума, тегов; дубли страниц закрыты, архивов, календарей не имеется; карта сайта html от www.xml-sitemaps.com и xml от dle; robots правильный; ошибок в коде нет; переоптимизации и прочее так же не наблюдается; имеются ссылки с соц.сетей + твиттера + пару беков естественных.
Дошло время и 1.5 месяца назад решил сменить домен (так же я первый владелец, домену было 4.5 месяца - висел с заглушкой и был в индексе (1 страница)). Естественно он уже склеился (host+301 редирект) и что имеется в итоге:
Трафик около 30-40 человек в сутки.
Позиции плохие (не растут и всё).
В гугле отлично индексируется.
Страниц более 420.
Имеется более 60 ссылающихся сайтов, включая тематические жирные беки (не спам).
В Яндексе 80-100 страниц в индексе и всё. Новые страницы попадают в индекс быстророботом за пару часов, но во время Апдейтов вылетают из индекса.
Контент - 415 страниц рерайта глубокого (от 1000 до 3000 знаков без пробелов с картинками) + 20к копирайта на 5 страницах.
В чем может быть проблема? Точнее даже не прошу ответа на вопрос, так как в случае с Яндексом он риторический, а прошу советов и рекомендаций что можно сделать для индексации?
P.S. Ещё с первым доменам писал Платону, ответ был шаблонный, что не все страницы всегда включены в индекс.
Вот как бывает. Делают люди саты, стараются... и фиг, не индексируются. А запускаешь пачку говносайтов - и все в индексе. Парадокс.
Более чем уверен зря сдались на 1,5 месяца. Рерайт разный бывает, не в плане уникальности. Могу предположить что рерайт или действительно хорош и дал бы хорошую посещаемость после включения в индекс "всех" страниц... ну грубо через 6 месяцев... Или плох и ваш рерайт по исходникам банально собран глупо.
А было так что страницы в индексе уменьшались до 5 или 10, а потом 20 или 30 и после все на места за кортокое время — в срок 14-20 дней примерно?
Короче, расколбас был? И откуда исходники как собирались?
А рерайт вы у профессионалов заказывали?
Сам грешил на рерайт изначально, за что после смены домена сменил и рерайтера. Но всегда сам все проверял, да и работают они у меня не только на этом сайте, а на остальных сайтах дела в порядке.
Источником рерайта являются крупные сайты моей тематики, до смены домена искались исходники по новостям из гугла.
Расколбасов не былол, единственное удивительное - этот до апа страницы увеличиваются в индексе (новои статьи захватывает быстроробот), а в ап снова возвращаются к планке 80-100 страниц.
Аййй написал большой пост а он чето не опубликовался... Лениво еще раз набирать(((
В двух словах, без кучи "НО":
Я бы ждал и ничего не делал, кроме того что пытался понять что произошло и просто наблюдал. Плохой рерайт - исходники с одного двух ресурсов. Хорошоий - единичные и нужные исходники с разных.
Вот я сейчас в течении недели планирую купить 5-10 отличных тематических ссылочек (все сайты в я.н. и яке), а так же изменить рерайт на переводы. Может я еще что-то упустил?
у меня такое постоянно
Наблюдаю подобное на одном из сайтов. Один домен также пришлось сменить, но тогда страниц было меньше в индексе.
Так вот, сейчас гугловских 350, яндексовских 160 страниц. Выпало около 80 страниц постепенно в междуапие, но не в том суть.
Дело в том, что твиттерфид юзать начал совсем недавно на этом сайте и пошёл нормальный подъём страниц. Но теперь пошёл резкий спад.
Кстати, ТС, у вас быстроробот переходит с твиттера, или сдох?
Пы.сы. Мне кажется, что, несмотря на заявление Яшки об индексации твиитов, случилось обратное.
Наблюдаю подобное на одном из сайтов. Один домен также пришлось сменить, но тогда страниц было меньше в индексе.
Так вот, сейчас гугловских 350, яндексовских 160 страниц. Выпало около 80 страниц постепенно в междуапие, но не в том суть.
Дело в том, что твиттерфид юзать начал совсем недавно на этом сайте и пошёл нормальный подъём страниц. Но теперь пошёл резкий спад.
Кстати, ТС, у вас быстроробот переходит с твиттера, или сдох?
Пы.сы. Мне кажется, что, несмотря на заявление Яшки об индексации твиитов, случилось обратное.
постоянно приходится думать об обратном
С Твиттера быстроробот ходит, его использую для быстрой индексации, и в Я и в Гугл влетают быстро страницы.