- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Месяц назад был запущен сайт в буржунете (англ.). По сути это мой первый серьезный сайт, и уж точно первый из тех, чья судьба зависит только от благосклонности Гугла. Тематика -- очень высоконкурентная, поэтому сайт вылизывался по максимуму (как мне казалось на момент запуска). Контент выписывался исключительно оригинальный и очень качественный. Верстка делалась максимально чистая и грамотная, на div'ах, с использованием содержащих ключевые слова заголовков <h1>, <h2> и т.п. Аккуратная внутренняя перелинковка. Тексты очень умеренно насыщены ключевыми словами. Дизайн тоже сделан на приличном уровне. В общем, получился весьма достойный небольшой "западный" проект.
После первой индексации почти весь сайт ушел в саплементал индекс. Впрочем, что именно произошло я понял лишь через какое-то время, когда проанализировал отчеты в WMT, а затем дотошно изучил с десяток веток на этом форуме (включая сто страниц "Бесплатного аудита..."). Только тогда я узнал, что у Гугла существует по меньшей мере два разных индекса, что такая мелочь, как одинаковый description на всех страницах, может стать гильотиной для сайта, что доступность страниц по адресам со слэшем в конце и без него -- это вовсе не "удобно", а "смертельно"... И так далее.
В общем, будучи в полной уверенности, что запускаю идеально вылизанный сайт, де факто запустил инвалида, который по меркам Гугла набит дублирующимися страницами с одинаковыми дескрипшинами. Естественно, что практически весь сайт сразу же начал чихать и ушел в "сопли". Причем продублированные страницы туда отправились дружными парами, не оставив в основном индексе от себя и следа. Т.е. если на сайте были дублирующиеся страницы /page и /page/, то в доп. индекс строевым шагом маршировали обе.
В сайт вложено три месяца тяжелого труда, а также огромное количество экспертный знаний, воплощенных в профессионально написанных и переведенных текстах. После всего этого получать на выходе такую реакцию от Гугла как-то обидно.
Естественно, взялся за реанимацию. Так как веса у страниц не было еще никакого (сайту месяц на текущий момент), а внешние ссылки есть только на главную, решил рубить все на корню, "очищая карму" по максимуму. Что было сделано:
1. Склеены воедино домены без www и с www редиректом через .htaccess на второй.
2. Убраны дубли страниц со слэшами и без слэшей, оставлены только со слэшами, а по запросу без слэшей выдается 404 (тоже через .htaccess).
3. Ненужные разделы и страницы закрыты от поисковых систем через robots.txt.
4. Каждая страница получила уникальное поле description, умеренно насыщенное ключевыми словами.
5. Каждая страница получила уникальный title, насыщенный ключевыми словами.
6. Создана новая карта сайта и скормлена Гуглу.
7. Через WMT удалены из индекса Гугла дубли, доступ к которым для Googlebot закрыт через robots.txt и .htaccess. Причем удаление прошло за 3 дня после заявки -- сейчас ни одна из этих страниц не видна даже при поиске по сайту.
ТЕПЕРЬ О ТЕКУЩИХ ВОПРОСАХ.
1. По запросу через WMT на удаление из индекса страниц вида /page, Гугл вместе с ними удалил все страницы вида /page/. Хотя удалять вторые никто не просил, они абсолютно рабочие (и нигде не заблокированные для Гугла) и вообще-то удаление первых было задумано чтобы вторые не казались дублями. Теперь же индекс вообще пуст по этим позициям. Почему это произошло и есть ли шанс, что эти страницы со слэшами вернутся в индекс (хоть в какой-нибудь)?
2. Съесть Гуглу страницы с дублями я, к сожалению, помог своими руками -- загрузив ему после запуска сайта xml-карту, в которой были эти самые дубли. Когда провел реанимационные мероприятия, старую карту, естественно, удалил с сервера, и залил новую, уже без этих ляпов. После заливки этой карты WMT тут же отрапортовал, что все страницы из нее уже проиндексировал (вероятно, сопоставив ее УРЛы с теми, где он уже был). Googlebot по сей день продолжает ходить по старой карте и ее "битым" УРЛам, что отчетливо видно по логам хостинга. А новую карту почему-то игнорирует, хотя она и через WMT ему подсунута, и через robots.txt, а о старой карте осталось только упоминание в WMT. В чем может быть проблема?
Месяц назад был запущен сайт в буржунете (англ.).
...
После первой индексации почти весь сайт ушел в саплементал индекс.
...
Только тогда я узнал, что у Гугла существует по меньшей мере два разных индекса, что такая мелочь, как одинаковый description на всех страницах, может стать гильотиной для сайта, что доступность страниц по адресам со слэшем в конце и без него -- это вовсе не "удобно", а "смертельно"... И так далее.
...
В общем, будучи в полной уверенности, что запускаю идеально вылизанный сайт, де факто запустил инвалида, который по меркам Гугла набит дублирующимися страницами с одинаковыми дескрипшинами.
вобще есть такое понятие как "траст", то что Вы пишите что сайт ушел в сопли, я так понимаю что это "песочница". Сайту всего месяц, и внешних ссылок, насколько я понял нет, поэтому быстрой индексации, а тем более кучи трафика с ТОП-10 ждать не стоит, по крайней мере как минимум полгода. Так что наращивайте ссылки, добавляйте уникальный контент, т.е. доказывайте гуглу что сайт живой, он это оценит, но не сразу.
По поводу одинаковых дескрипшенов, слешей - это по моим замечаниям на индексацию в гугле не влияет
да конечно ерунда все эти слеши, вы не там копаете. я живу на вордпрессе. У меня есть блог на русском - 100 страниц - посетителей - 1500 уников в день. И есть блог на английском - 100 страниц - посетителей уников 2- 5 в день. Видите разницу? Хотя система у блогов одна - вордпресс, никаких заморочек с роботс слеш ввв и так далее.
Меня лично интересует вот такой вопрос, когда же все таки гугл смилостивится к моему буржусайту. Домену - 12 лет ( не в фильтре 100 процентов, после покупки отправляла на пересмотр сразу заиндексили ), в моем пользовании - 4 месяца, ПР 2, наращиваю ссылочное. А результата нолик. Разумеется контент оригинальный. Про тематику не спрашивайте даже. Конкурентная конечно же. Но жалко саму себя уже, на 100 страниц хоть бы 50 уников дали. 2-5 смешно блин. Но я не сдаюсь!
Нельзя так дёргаться. Особенно с гуглом. Сначала скормили, потом похерили....
Со слешами полная ерунда. Главное следите чтобы сайт везде в меню и перелинковке использовал единую стилистику ссылок, либо со слешем либо без и всё. Гугл сам всё распределит как нужно, зачем заморачиваться.
С дескрипшнами тоже ерунда. Вещь полезная, но если контент хороший уник, то уж дескрипшны никак не могли загнать весь контент в сопли.
Ссылок мало, сайт молодой вот и весь секрет скорее всего. www и без www и прочие вещи, безусловно, полезны, но не настолько критичны. И уж тем более от резких телодвижений типа "удалить всё из индекса" я бы порекомендовал воздержаться. Гугл не мальчик, бегать посыльным каждые пять минут "почему в шапке, почему без шапки" ©
Спасибо всем за ответы и советы!
Сайту один месяц после запуска, но домен был куплен за 3 месяца до старта. Сразу же была повешена заглушка, и Гугл сам, без ссылок, каким-то образом его нашел и проиндексировал почти на следующий же день. Так что в глаза Гугла сайту уже по меньшей мере 4 месяца. Возможно, конечно, и песочница. Возможно, со слэшами/без и дескрипшины -- ерунда. Не могу пока что тягаться с уважаемыми экспертами в знании этих вещей :).
Но то, что страницы с повторяющимся контентом (слэш/без слеша), а также с повторяющимися описаниями все ушли в сопли -- это факт. А те, для которых Гугл не успел съесть безслэшевые копии, все попали в основной индекс -- тоже факт. Увидев такую картину, почитав этот форум и решив, что терять пока нечего (никакой истории поисковых заходов через Гугл, никаких внешних ссылок на внутренние страницы), решил исправлять все и сразу, фактически сделав сайту перезапуск в глазах Гугла.
Получается, таким "оперативным вмешательством" я тоже сильно накосячил? Печально... "Хотели как лучше, а получилось как всегда" (с) :). Что ж, теперь, как я понял, остается просто ждать, пока Гугл опять придет индексировать весь сайт целиком.
вобще есть такое понятие как "траст", то что Вы пишите что сайт ушел в сопли, я так понимаю что это "песочница".
ИМХО "песочница"- абстрактное понятие. У меня новый сайт (домен 3-го лвла) влетел по некоторым СЧ запросам в ТОП с пустыми страницами. Контента "0"! Только меню. И по меню влетел за неделю. После смены домена и переиндексации - сегодня обнаружил в ТОПе по одному из СЧ запросов. Новый домен 2-го уровня, куплен 15 января. Так, что не думаю, что "песочница" приемлема к сайтам со 100% уник контентом. У ТСа точно 99% уника? Мож 90? Если 10% неуника- мож и применен какой-то фильтр...
У меня со 100% уником нет проблем.
kievrent, уник 99% (1% оставляю на то, что какие-то отдельные фразы, безусловно, "природным образом" могли быть написаны кем-то ранее в таком же виде). А так все абсолютно чистый копирайт, причем по теме, в которой на таком уровне вообще мало кто разбирается (прямых конкурентов именно по этому сектору не существует, конкуренция только на уровне общей темы).