- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
T-34, вы почти уловили смысл моей темы
Вот тут вы уже близки к смыслу, так именно и делают вебмастера и это не сильно хитроумно и смысл в этом есть даже если страница уже в индексе
Рассмотрели данный вопрос и пришли к выводу, что основная причина скрытия разделов - это избавление от индексации дублирующего контента с тем, чтобы не получить негативное влияние от ПС, прежде всего от Яндекса. Нет никаких доказательств того, что подобный подход негативно влияет на передачу ссылочного веса странице-донору, особенно учитывая, что ПС знают о существовании промежуточных разделов, несмотря на их скрытие от индексации. Поэтому обязывать вебмастеров идти на изменение политики формирования файла роботс - это ни к чему хорошему не приведет (меняется приоритет, уже не GGL для сайтов, а сайты для GGL).
Если же для вас данный вопрос принципиален, укажите соответствующие требования в кампании, а также проверяйте перед одобрением заявок и отправкой предложений сайты на предмет ваших требований.
Я же говорил — бесполезно. :)
dlyanachalas,
Нет, не я. Мне есть чем заняться, кроме "поучания". И я не видел в примере скрытия пути до ссылки. Я видел запрет индексации раздела с превью статей. Это не мешает Я.боту ходить по ссылкам из этого раздела.
Кстати сейчас и его не вижу, хотел ещё раз глянуть в роботс на сайте примере - а его нет)
Есть много теорий. Под каждую теорию сайты делать? Тогда сайты будут делать уже не для вывода на трафик, не для развития, а 100%но для ГГЛа. И на любом наполняемом сайте страница рано или поздно уйдёт в глубь. Постоянный 3й уровень - это для сапосайтов которые не обновляют.
Но есть и другие. Которые считают, что некто ставит свою дурнопахнущую ссылку на их цветущий и Великий Сайт. И делают работу соответствующе.
Я вообще не пишу. У меня 6ть копирайтеров прикреплённые к площадкам. Они пишут вполне хорошо. в 9ти случах из 10ти - доработки по механическим ошибкам.
И если я считаю что ссылка дурнопахнущая - её просто отменяют)
burunduk, а какая выгода для ВМа закрывать раздел(общий раздел где статьи не только для ггла) от индексации? Ну кроме того, что так кто-то перестраховывается в защите от АГС?
И да, вы - сможете просчитать. ТС - вряд ли.
jabi, вы ошибаетесь по следующим причинам:
2) У каждой площадки отображается процент индексации. Если страница с обзором выпадает из индекса, то процент индексации снижается. Площадки со сниженным процентом индексации получают значительно меньше заказов.
Пару месяцев назад, имел место разговор:
Поддержка ответила:
"Да, к сожалению. У оптимизаторов нет функционала по проверке индексации. Что можно сделать в вашей ситуации?
Можно попросить вебмастера о переносе обзора на другую страницу в индексе, что не даст ухудшиться рейтингу индексации его сайта. А это через некоторое время позволит вернуть ваш обзор в индекс без повторной оплаты. Но, хотя это очень выгодно вебмастеру (рейтинг индексации растет, а количество заданий увеличивается), он может законно проигнорировать вашу просьбу."
Суть в том, что ссылка в системе "оптимизатор" стоит, но по факту она не в индексе уже. Выждал обещанные 2 недели, даже больше, ссылка так и осталась в статусе "ок"...
<!--WEB-->, ответ был конструктивным, кроме теорий и догадок, есть какие-то эксперименты и весомые аргументы того, что проиндексированная страница, с закрытым разделом передаёт меньше веса, чем с открытым?
Рассмотрели данный вопрос и пришли к выводу, что основная причина скрытия разделов - это избавление от индексации дублирующего контента с тем, чтобы не получить негативное влияние от ПС, прежде всего от Яндекса. Нет никаких доказательств того, что подобный подход негативно влияет на передачу ссылочного веса странице-донору, особенно учитывая, что ПС знают о существовании промежуточных разделов, несмотря на их скрытие от индексации. Поэтому обязывать вебмастеров идти на изменение политики формирования файла роботс - это ни к чему хорошему не приведет (меняется приоритет, уже не GGL для сайтов, а сайты для GGL).
Если же для вас данный вопрос принципиален, укажите соответствующие требования в кампании, а также проверяйте перед одобрением заявок и отправкой предложений сайты на предмет ваших требований.
Молодцы, вы официально заявляете, что вебмастера могу размещать все обзоры в разделе закрытым от индексации, а статьи загонять в индекс, например через твиттер.
В среднем в месяц около 100ссылок продается.
вчера как раз общался с человеком и проверяли его ссылки купленные через ггл :(
входящих на домен 200+ исходящих почти 6000
вопрос и на фига такой донор нужен?
P.S. подобная ситуация со 9 из 10 проверяемых ссылок
у одного донора 13 зеркал (я не стал разбираться основное это зеркало или нет)
Вы самый печальный сеошник, если готовы покупать ссылки на страницах, к которым с главной нет пути. Идите учите, что такое уровень вложенности, перелинковка, вес страницы и как он распределяется, а пока я вижу только 99% некомпетентных людей, которые думают что занимаются поисковым продвижением.
Вы самый веселый сеошник :) и судя повсему входите в 1% компетентных людей.
Просветите тех кто не в теме (уже спрашивал, но не был удостоен ответа). Насколько больше передает вес ссылка со страницы на которую есть ссылка (от не закрытого в роботсе) со страницы со списком статей?
Ведь именно это вас не устраивает.
Варианты схем следующие.
1. Закрыть раздел от индексации(robots, meta, noindex, nofollow и т.д)
2. Выгнать из индекса раздел(как-то умудряются)
3. Закрыть путь к разделу, но его вогнать в индекс
И как вы можете проверить как настроена перелинковка на сайте у которого тысячи страниц и есть ли на нем ссылки на страницу с вашей ссылкой? (может сервис есть какой)
И как вы можете проверить как настроена перелинковка на сайте у которого тысячи страниц и есть ли на нем ссылки на страницу с вашей ссылкой? (может сервис есть какой)
а что проблема отсканировать сайт?
просто найти ссылки xenu, расчитать вес PW
вчера как раз общался с человеком и проверяли его ссылки купленные через ггл :(
входящих на домен 200+ исходящих почти 6000
вопрос и на фига такой донор нужен?
P.S. подобная ситуация со 9 из 10 проверяемых ссылок
у одного донора 13 зеркал (я не стал разбираться основное это зеркало или нет)
Не покупайте на таких донорах? Я хз =) это ж как в магазине не нравится не беру, нравится беру.
И да бывают сайты с 200 входящих и под 500тиц. а бывают с 10000входящих и тиц 20. Сравнивать как то уныло по кол-ву ссылок.