А если всё же блог угораздит попасть в бан Яндекса из-за Сапы, то достаточно убрать сапоссылки, и он "разбанится" и опять появится в индексе?---------- Добавлено 25.04.2013 в 15:41 ----------Казапа - это аналог Ротапоста, http://kazapa.ru, только с несколько меньшими ценами. Просто мой блог почему-то в Ротапосте никак не получает предложений размещения рекламных ссылок - даю рекламодателям объявления (пачками по 40 штук), уже в который раз получаю отвержение от них... (имею в виду блог simreg.ru)
Контент не изменился! Т.е. база осталось интактной, просто криво стала выводиться. Какой файлик исправить? просто ситуация такая, что база бэкапилась, а файлы - нет😡
Это-то понятно, но почему так вышло? Недавно видел в этом же разделе схожую тему, как у человека загнулся блог из-за этого же плагина. Хотя тысячи людей его юзают, и ничего...
Кто такие ТС?:)
Как это <noindex> (я имею в виду не который мета-тег на закрывание всюй страницы!) не закрывает от индексации сегмент текста? Яндекс же сам в справке к веб-мастеру пишет, что закрывает.
А о чем тогда надо думать? Только о качестве контента с точки зрения людей? Ну, я итак готовлю вполне качественные статьи для блога, т.к. ГС-ы делать совсем неинтересно...
А как решить более общий вопрос?
Когда есть текст с объёмистыми цитатами, занимающими до 1/3 суммарного текста например. Вокруг цитат текст по Адвего если без них брать - 100% уникален; а суммарно уникальность 45-50% только выходит.
Вот и хотелось бы уметь закрывать кусок страницы от Гугла в стиле а-ля <noindex>fragment</noindex>...
Поясните пожалуйста. Я уникальность определяю по Advego Plagiatus, которая показывает уникальность в 100% для переведенного текста (если его отдельно вставить в AdvegoP, без кода) и 0-4% для кода (если код без текста вставить). Усредненная уникальность текста со вставками кода выходит на уровне 45-50% из-за неуникального кода.
Так для посетителя я и хочу чтобы он выглядел как есть, а от поисковиков закрыть. Чтобы поисковики видели только уникальный текст и не видели неуникальных кодовых вставок. Почему же маюсь ерундой?
Меня интересует вполне конкретный вопрос (не только для этой цели, но и вообще): как закрыть часть содержимого странички от Гугла, у которого нет <noindex> для фрагментов страницы как у Яндекса есть. Такая проблема может возникнуть и когда объёмистые цитаты вставляешь, которые неуникальны и будут портить уникальность страницы в целом.
О! Идея делать на поддоменах - это то, что на мой взгляд, красивее всего бы смотрелось (но только на мой взгляд).
1. Не могли бы кинуть пару ссылочек на лучшие материалы по специфике "поддомены и SEO"? А то в Гугле мнения противоречивые встречаются. Одни говорят, отлично делать поддомены в блоге, другие говорят, что не очень хорошо... Хочу правды!
2. Как повлияет увод на поддомены на возможности заработка с Ротапост и GGL? Есть ли тут какие-то подводные камни? (Они же вроде не любят сайты на доменах III уровня - а тут такая штука и выходит).
1. То есть получается, что если мне надо - я могу хоть по 10 раз в год делить блог на несколько, потом какие-то блоги сливать вместе и даже возвращать часть статей на исходный блог - и благодаря волшебному 301-му всё будет хорошо и никогда ни Яндекс не запинает, ни индексация не нарушится, ни трафик не пострадает?
2. А если имена доменов для новых блогов, на которые буду делать перенос статей я выберу немного похожими на исходный домен? Например:
simreg-radio - для блога по старой радиоэлектронике
simreg-programmer - для блога по PowerShell скриптам и C#
Чем это грозит - или ничем не грозит?
3. Как после деления блога мне не попасть под фильтр аффилиатов? Особенно с учетом:
-п.2
-ссылок с блога на блог
-и того, все блоги будут сидеть на одном хостинге в рамках тарифа Агавы "Normal", где за те же 300 рублей/месяц хоть 5 блогов заводи.
Коллеги, ура! Сегодня Яндекс обновил свой индекс, и все проблемы (№1 и №2) как рукой сняло!
Спасибо за поддержку!
Вебмастер-тулзы Яндекса и Гугла - давно зареган там, каждый день туда хожу:) сейчас ещё раз посмотрю внимательнее.
Где именно? Яндекс-вебмастер ошибок не находит.
На всякий случай поясню, что:
...это фрагмент robots.txt, вот полное содержимое:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: */feed
Disallow: /trackback
Disallow: */trackback
Disallow: /comments
Disallow: */comments
Disallow: /category/
Disallow: /author/
Disallow: /page/
Disallow: /tag/
Disallow: /*?
Disallow: /*?*
Disallow: /*.php
User-agent: Yandex
Host: simreg.ru
Sitemap: http://<Мой Блог>/sitemap.xml
Sitemap: http://<Мой Блог>/sitemap.xml.gz---------- Добавлено 11.05.2012 в 13:39 ----------
А вот думаю, так и есть на самом деле, что Яндекс выложил старый индекс, до-майский! Просто выложил свой robots.txt для того, чтобы подкорректировать, если что не так в нём...