- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
2 OptimaNet: а как определить ссылка покупная или нет?
+1
Тоже очень интересно. Читал брошюру Ашманова с конференции 2006 декабрьской , там как раз тоже был затронут вопрос "рекламных" и "других" ссылок. Было 3 таблицы по 3ем запросам "шины" , "автошины" и еще какой-то. Сайтов 15 основных по 3ем поисковикам (Г+Я+Р). С первого взгляда на таблицы видно, что чем меньше % так называемых "рекламных" ссылок , тем ближе к Гугл-топу.
Как определяли "рекламные" и "другие" ссылки - осталось для меня загадкой. Какой бы ссылка ни была - ее всегда можно назвать покупной.
Хотя год уже прошел...
Подождал пока проиндексируется в Гугле и тут же купил 1200 слабеньких ссылок. Уже 4 недели наблюдаю рост по продвигаемым словам. По некоторым СЧ уже в топе. Как вы это объясните ?
А не думали о том, что ссылки еще не все засчитались ?
2Onu
4 недели более чем достаточно, чтобы все ссылки засчитались. Мне с каждым днем все больше и больше кажется что гугль-бот настолько быстрый, что знает о линке фактически "мгновенно", после ее появления.
2Lexua
посокольку домен молодой имхо Вам просто пока везет ;)
А не думали о том, что ссылки еще не все засчитались ?
За месяц ?!
Думаю что фильтр бы уже сработал , если бы он был таким простым - просто много новых ссылок.
Я считаю, что если такой фильтр и есть то он учитывает сразу несколько параметров. Старость сайта , количество старых ссылок на него и резкий прирост новых - это слишком мало параметров чтобы безошибочно рубить его. Простая мысль - я разместил мегапопулярную картинку или что то еще подобное на своем новом сайте, ссылка на всякие удачные приколы тиражируется миллионами в сети ( такое часто бывает , согласитесь) . Так как расценить поисковику этот бешанный прирост ?
Я бы сказал так про изменения в выдаче - часть гавносайтов сменил такими же по качеству, но другими :) Это касательноя появления новых доменов топах. Также вновь появились много страницы с ebay, вики и подобного.
Многие сайты, причем старые, выпадают из выдачи, даже если с ними ничего не делали.
На мой взгляд гугл придумал что-то новое по ссылочному и теперь все кушает заново, чтобы всю выдачу переделать. Возможно поэтому и ПР так долго никак не может обновиться.
Я бы сказал так про изменения в выдаче - часть гавносайтов сменил такими же по качеству, но другими :) Это касательноя появления новых доменов топах. Также вновь появились много страницы с ebay, вики и подобного.
Многие сайты, причем старые, выпадают из выдачи, даже если с ними ничего не делали.
На мой взгляд гугл придумал что-то новое по ссылочному и теперь все кушает заново, чтобы всю выдачу переделать. Возможно поэтому и ПР так долго никак не может обновиться.
ладно бы сайт был говняный... контент уникален на 100% страниц. Все тайтлы, дески тоже уникальны. дизайн уникален.
короче причина причина фильтра - прирост бэков + изменение алго Гугла по ранжированию. Выдача по моим запросам поменялась очень и очень серьёзно. Практически все сайты по моей тематике в ТОП200 (красиво звучит ТОП200)) уникальны на процентов 90.
На мой взгляд гугл придумал что-то новое по ссылочному и теперь все кушает заново, чтобы всю выдачу переделать. Возможно поэтому и ПР так долго никак не может обновиться.
То, что с ссылочним произошли изменения, очевидно. Делал пару сайтов, транслирующих статьи с одного донора, ссылки ставились с одних и тех же пиаристых страниц. Первый сайт, который начал жить в начале лета, за пару недель успешно проиндексировался, дал траф и ушёл в песок. Второй, ведущий отсчёт с середины августа, даже и не думает лезть в индекс, гугл-бот заходит раз в сутки...
Гугл не придумывал никакой фильтр типа "индексить по странице в неделю"? 😕
На мой взгляд гугл придумал что-то новое по ссылочному и теперь все кушает заново, чтобы всю выдачу переделать. Возможно поэтому и ПР так долго никак не может обновиться.
ИМХО - правильная мысль. Причем ощущение такое, что в соотношении ссылки-контент сдвиг в пользу контента...
Вот какая мысль есть по этому поводу, возможно имеет значение не только количество ссылок, а и количество уников которые приходят по ним на сайт, ИМХО гугл наказывает за быстрый прирост мёртвых ссылок (ссылок по которым нет переходов),
ну типа точно не для людей.
А как гугл узнает, что были переходы по ссылке? Опять с помощью "волшебного" тулбара? Да и обходится это просто, достаточно через прокси покликать на проставленные ссылки, ну и на сайте побродить для видимости активности.