- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
если по принципу "на кого" то поидее должны фильтроваться все продвигаемые запросы, да или нет?
Ну, почему же сразу все? Например, те, по которым ссылочное не уложилось в некую схему "естественности ссылок". Да много может быть вариантов
Ну, почему же сразу все? Например, те, по которым ссылочное не уложилось в некую схему "естественности ссылок". Да много может быть вариантов
А по-моему более логичным было бы Яндексу думать не о ссылках, а о контенте. Ссылки с более контентных сайтов должны рулить больше, чем ссылки с беднрых контентом сайтов. По поводу тематической близости поостерегусь говорить т.к. ссылка с физического сайта или сайта о водорослях на химический сайт все равно хорошая (почему, надеюсь пояснять не придется :) ).
Так вот, сейчас фирмы и частные оптимизаторы зачастую делают сателлиты по 1-5 страничек с ворованным контентом, совершенно убогие, зачастую косящие под реальные фирмы.
Все боятся, что Яндекс наложит фильтры. Скорее он перестанет учитывать ссылки со слабых и в каких-то случаях свежих сайтов. Тем самым оптимизаторам придется делать хорошие качественные сайты, пусть и сателлиты, и ставить с них ссылки.
у меня вообще по слову БЕЛГОРОД открывается только одна страница в янедексе
Так вот, сейчас фирмы и частные оптимизаторы зачастую делают сателлиты по 1-5 страничек с ворованным контентом, совершенно убогие, зачастую косящие под реальные фирмы.
Думаю, не стоит говорить за всех. Вот у меня сетка с хорошим дизайном, хоть и единым, 10-15 страниц неуникального контента (но размещенным с соблюдением копирайта) + 50-100 страниц, которые индексироваться не должны были, но проиндексировались (линкопомойки нет, просто это страницы добавления/удаления товаров в/из корзины). Использование неуникального контента - это не потому, что жаба задушила статьи заказать, просто в этом вся идея проекта. Юзеры САМИ ставят на них ссылки с форумов и досок объявлений, как на удобный источник информации - значит, они реально полезны пользователям. До выходных они очень неплохо искались только за счет контента и внутрисетевой перелинковки с внутренних (морды не использовались). Сейчас по многим запросам они ушли в небытьё. Хотя нет, 1 не сильно обвалился, может из-за 100 каталожных бэков... Если это так, то своими изменениями алгоритма Я сделал только хуже, т.к. отсеивая сайты без какого-то минимального числа бэков, он хоронит в выдаче много молодых некоммерческих проектов, которые могут быть очень полезны юзеру. А против доров такая фильтрация бесполезна - сами знаете, сколько сейчас стоит прогон по каталогам...
Кстати, ребят, щас обратил внимание на нового робота Я в логах - Yandex/1.02.000 (compatible; Win16; F). Кто-нить знает, что это (в WikipediaSEO его нет). Или, может, он ходит уже давно, это я просто все пропустил, как всегда :).
Отсеивая сайты без какого-то минимального числа бэков, он хоронит в выдаче много молодых некоммерческих проектов, которые могут быть очень полезны юзеру. А против доров такая фильтрация бесполезна - сами знаете, сколько сейчас стоит прогон по каталогам...
Отсеивать по количеству бэков я думаю ни одна поисковая система не будет такой алгоритм использовать.
Oniks, Favicon, индексатор иконок :)
Респект Андрюх, а то прям спать перестал :)
Yandex/1.02.000 (compatible; Win16; F)
Иконкоиндексатор:
http://webmaster.yandex.ru/faq.xml?id=502499#user-agent
Например, те, по которым ссылочное не уложилось в некую схему "естественности ссылок"
я думаю у тех кто ведет не один десяток проектов сейчас наблюдают
разные ситуации:
есть тефлоновые сайты - которые только ростут, есть те кого кидает туда сюда: но в теорию о некой новой схеме "естественности ссылок" не укладывается то что когда ведется ряд проектов по одним и тем же запросам, имеет примерно те же морды и обмен ведется одним линкером - одни улетают, другие остаются
Вопрос2:
логично предположить что при работе над примерно одинаковыми проектами применяется одинаковый подход - но как при нем могут быть подобные расхождения?
Ссылки то везде стоят как надо ;)