- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
кстати ваша карта не работает http://brokenbrake.biz/sitemap.xml
Ого! Спасибо! Вот это скорей всего и есть основная причина. Сломалось, а я и не заметил, а в "гугловебмастер" не заходил тысячу лет. Спасибо! Отремонтирую в ближайшие дни.
Ого! Спасибо! Вот это скорей всего и есть основная причина. Сломалось, а я и не заметил, а в "гугловебмастер" не заходил тысячу лет. Спасибо! Отремонтирую в ближайшие дни.
бось вас огорчить, только это вряд ли поможет
Думаю, не в дублях всё же дело.
ИМХО, дело не в чем то одном, а в совокупности всех факторов, которые учитывают алгоритмы поисковика. О них мы можем только догадываться. :)
Это это и совокупный пр-вес сайта (есть прямая зависимость), и качество сайта (текста (тематичность, грамматика, орфография, соответствие текста title и description, уникальность и т.д.) и кода (в соответствии с рекомендациями для вебмастеров)) в соответствии с алгоритмами. Поисковики стараются уменьшить в индексе дублирующийся контент и то что может не представлять интереса, но делают они это по заложенным в них алгоритмам, в целях экономии ресурсов.
И в данном случае мы видим несостоятельность алгоритмов, я считаю ваш сайт, и те страницы на нем, которые не в индексе, очень интересными, а поисковик, обработав содержимое сайта, посчитал те страницы не представляющими интереса.
грамматика, орфография
не смешите меня :D, 90% рунета не попадает под этот критерий, если не больше :)
tutonhamon_ Смех продлевает жизнь. :)
Я говорю о совокупности факторов, и кажется не утверждал, что перечисленные являются ключевыми или обязательно учитываются гуглом. :)
tutonhamon_ Смех продлевает жизнь. :)
Я говорю о совокупности факторов, и кажется не утверждал, что перечисленные являются ключевыми или обязательно учитываются гуглом. :)
а с чего вы взяли, что гугл, вообще, учитывает эти 2 фактора?
а с чего вы взяли, что гугл, вообще, учитывает эти 2 фактора?
Еще раз повторюсь, я не утверждаю что учитывает, как и вы, думаю, не можете 100% гарантировать, что не учитывает.
Во всяком случае советует писать качественный контент. ;)
Какая карта, какая орфография.. Совершенно не понимаю о чём здесь идёт речь, если ответ очевиден, и лежит на поверхности. Уже несколько лет ни для кого не секрет (как видим, для многих секрет), что не посещаемые страницы с низким весом гугл исключает из своего индекса. Даже в каком-то интервью кто-то из них говорил, что гугл не ставит целью держать в индексе весь интернет, состоящий более чем на 50% из не востребованных или бесполезных документов. Как заявляют они, их индекс состоит из самых качественных и полезных страниц. Каким образом определяется эта полезность, многие уже заметили. Если страница стоит на не далёком уровне вашего сайта, если на страницу ссылаются другие сайты, или если её часто посещают, то она полезна.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Sower, вообще, это плохо. Получается, в выдаче всегда будет попса, а найти какую-то уникальную редковостребованную информацию будет крайне сложно или даже невозможно через Google.
Sower, вообще, это плохо. Получается, в выдаче всегда будет попса, а найти какую-то уникальную редковостребованную информацию будет крайне сложно или даже невозможно через Google.
Да почему же будет? Так есть уже давно. Лет 10 назад держали командой одну партнёрку. Создали блог под неё, чтоб не отвечать на одни и те же вопросы в письмах, а просто давать ссылки на ответы. Партнёрка работала пару лет, страниц на блоге накопилось много. В некоторых темах выкладывали разный софт, включая и само писанный. Пару лет назад понадобилась мне одна программка (скрипт) от туда. Ввёл в гугл её название, а в ответ - ни чего не найдено. И это не смотря на то, что текст не просто уникальный, но и содержит уникальные слова. Пришлось перелистывать все страницы блога вручную, чтоб найти то что искал. Посмотрел на количество страниц, в индексе отсутствует как минимум половина. А в то время, когда блог был актуальный, били проиндексированы все страницы. Правда и гугл был тогда другой, хвастался тогда, что держит в своём индексе весь интернет.