- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
если по принципу "на кого" то поидее должны фильтроваться все продвигаемые запросы, да или нет?
Ну, почему же сразу все? Например, те, по которым ссылочное не уложилось в некую схему "естественности ссылок". Да много может быть вариантов
Ну, почему же сразу все? Например, те, по которым ссылочное не уложилось в некую схему "естественности ссылок". Да много может быть вариантов
А по-моему более логичным было бы Яндексу думать не о ссылках, а о контенте. Ссылки с более контентных сайтов должны рулить больше, чем ссылки с беднрых контентом сайтов. По поводу тематической близости поостерегусь говорить т.к. ссылка с физического сайта или сайта о водорослях на химический сайт все равно хорошая (почему, надеюсь пояснять не придется :) ).
Так вот, сейчас фирмы и частные оптимизаторы зачастую делают сателлиты по 1-5 страничек с ворованным контентом, совершенно убогие, зачастую косящие под реальные фирмы.
Все боятся, что Яндекс наложит фильтры. Скорее он перестанет учитывать ссылки со слабых и в каких-то случаях свежих сайтов. Тем самым оптимизаторам придется делать хорошие качественные сайты, пусть и сателлиты, и ставить с них ссылки.
у меня вообще по слову БЕЛГОРОД открывается только одна страница в янедексе
Так вот, сейчас фирмы и частные оптимизаторы зачастую делают сателлиты по 1-5 страничек с ворованным контентом, совершенно убогие, зачастую косящие под реальные фирмы.
Думаю, не стоит говорить за всех. Вот у меня сетка с хорошим дизайном, хоть и единым, 10-15 страниц неуникального контента (но размещенным с соблюдением копирайта) + 50-100 страниц, которые индексироваться не должны были, но проиндексировались (линкопомойки нет, просто это страницы добавления/удаления товаров в/из корзины). Использование неуникального контента - это не потому, что жаба задушила статьи заказать, просто в этом вся идея проекта. Юзеры САМИ ставят на них ссылки с форумов и досок объявлений, как на удобный источник информации - значит, они реально полезны пользователям. До выходных они очень неплохо искались только за счет контента и внутрисетевой перелинковки с внутренних (морды не использовались). Сейчас по многим запросам они ушли в небытьё. Хотя нет, 1 не сильно обвалился, может из-за 100 каталожных бэков... Если это так, то своими изменениями алгоритма Я сделал только хуже, т.к. отсеивая сайты без какого-то минимального числа бэков, он хоронит в выдаче много молодых некоммерческих проектов, которые могут быть очень полезны юзеру. А против доров такая фильтрация бесполезна - сами знаете, сколько сейчас стоит прогон по каталогам...
Кстати, ребят, щас обратил внимание на нового робота Я в логах - Yandex/1.02.000 (compatible; Win16; F). Кто-нить знает, что это (в WikipediaSEO его нет). Или, может, он ходит уже давно, это я просто все пропустил, как всегда :).
Отсеивая сайты без какого-то минимального числа бэков, он хоронит в выдаче много молодых некоммерческих проектов, которые могут быть очень полезны юзеру. А против доров такая фильтрация бесполезна - сами знаете, сколько сейчас стоит прогон по каталогам...
Отсеивать по количеству бэков я думаю ни одна поисковая система не будет такой алгоритм использовать.
Oniks, Favicon, индексатор иконок :)
Респект Андрюх, а то прям спать перестал :)
Yandex/1.02.000 (compatible; Win16; F)
Иконкоиндексатор:
http://webmaster.yandex.ru/faq.xml?id=502499#user-agent
Например, те, по которым ссылочное не уложилось в некую схему "естественности ссылок"
я думаю у тех кто ведет не один десяток проектов сейчас наблюдают
разные ситуации:
есть тефлоновые сайты - которые только ростут, есть те кого кидает туда сюда: но в теорию о некой новой схеме "естественности ссылок" не укладывается то что когда ведется ряд проектов по одним и тем же запросам, имеет примерно те же морды и обмен ведется одним линкером - одни улетают, другие остаются
Вопрос2:
логично предположить что при работе над примерно одинаковыми проектами применяется одинаковый подход - но как при нем могут быть подобные расхождения?
Ссылки то везде стоят как надо ;)